"EchoLeak": Как хакеры могли украсть ваши данные из Microsoft 365 Copilot, не оставив следа
- Категория: Microsoft
- Дата: 14 июня 2025 г. в 00:00
- Просмотров: 32
Представьте, что кто-то может прочитать вашу личную переписку, просмотреть ваши документы и узнать все ваши секреты, даже не взламывая ваш компьютер. Звучит как сюжет фильма, но, к сожалению, это стало возможным из-за новой уязвимости в Microsoft 365 Copilot, получившей название "EchoLeak".
Исследователи из Aim Labs обнаружили серьезную брешь в системе безопасности Microsoft 365 Copilot. Эта уязвимость могла позволить злоумышленникам получить доступ к конфиденциальным данным пользователей, даже не требуя от них никаких действий! Представьте себе – zero-click атака на ваш AI-ассистент! (Об этом сообщило издание Fortune).
К счастью, исследователи сообщили о своей находке в Microsoft, и компания оперативно отреагировала, присвоив уязвимости идентификатор CVE-2025-32711 и выпустив исправление (https://msrc.microsoft.com/update-guide/en-US/vulnerability/CVE-2025-32711).
Хорошая новость заключается в том, что Microsoft утверждает, что для защиты от этой уязвимости пользователям не нужно ничего делать. Проблема была решена на стороне сервера, и нет никаких признаков того, что кто-то успел воспользоваться "EchoLeak" в злонамеренных целях.
Эта уязвимость представляет собой значительный прорыв в исследованиях безопасности AI, поскольку она демонстрирует, как злоумышленники могут автоматически извлекать наиболее конфиденциальную информацию из контекста Microsoft 365 Copilot, не требуя какого-либо взаимодействия с пользователем.
Соучредитель и технический директор Aim Security, Адир Грусс
Но как именно работал "EchoLeak"? По словам исследователей, это была "брешь в системе безопасности LLM". LLM (Large Language Model) – это, по сути, "мозг" Copilot, который позволяет ему понимать и отвечать на ваши вопросы. Уязвимость позволяла хакерам обмануть этот "мозг" и заставить его выдавать конфиденциальные данные, такие как:
- История чатов
- Документы из OneDrive
- Контент из SharePoint
- Разговоры в Teams
Самое неприятное, что, по словам Грусса, стандартные настройки Microsoft Copilot делали большинство организаций уязвимыми для атак, пока Microsoft не выпустила исправление.
Microsoft отреагировала на ситуацию следующим образом:
"Мы ценим Aim Labs за выявление и ответственное сообщение об этой проблеме, чтобы ее можно было решить до того, как это повлияет на наших клиентов".
Компания также заявила, что обновила свои продукты и внедрила дополнительные механизмы защиты для повышения безопасности Microsoft 365 Copilot.
Вопрос в том, насколько хорошо Microsoft сможет защитить свои AI-инструменты от будущих угроз. Ведь, как показал бывший архитектор безопасности Microsoft Майкл Баргури, существует множество способов обойти защитные барьеры Copilot.
Мнение редакции MSReview: Эта история подчеркивает, насколько важно постоянно следить за безопасностью AI-систем и улучшать ее, особенно когда речь идет об обработке конфиденциальных данных. Несмотря на то, что Microsoft быстро устранила проблему, "EchoLeak" служит напоминанием о потенциальных рисках, связанных с использованием искусственного интеллекта, и необходимости принятия мер для их предотвращения.
- Комментарии