"EchoLeak": Как хакеры могли украсть ваши данные из Microsoft 365 Copilot, не оставив следа

  • Категория: Microsoft
  • Дата: 14 июня 2025 г. в 00:00
  • Просмотров: 32

Представьте, что кто-то может прочитать вашу личную переписку, просмотреть ваши документы и узнать все ваши секреты, даже не взламывая ваш компьютер. Звучит как сюжет фильма, но, к сожалению, это стало возможным из-за новой уязвимости в Microsoft 365 Copilot, получившей название "EchoLeak".

Исследователи из Aim Labs обнаружили серьезную брешь в системе безопасности Microsoft 365 Copilot. Эта уязвимость могла позволить злоумышленникам получить доступ к конфиденциальным данным пользователей, даже не требуя от них никаких действий! Представьте себе – zero-click атака на ваш AI-ассистент! (Об этом сообщило издание Fortune).

К счастью, исследователи сообщили о своей находке в Microsoft, и компания оперативно отреагировала, присвоив уязвимости идентификатор CVE-2025-32711 и выпустив исправление (https://msrc.microsoft.com/update-guide/en-US/vulnerability/CVE-2025-32711).

Хорошая новость заключается в том, что Microsoft утверждает, что для защиты от этой уязвимости пользователям не нужно ничего делать. Проблема была решена на стороне сервера, и нет никаких признаков того, что кто-то успел воспользоваться "EchoLeak" в злонамеренных целях.

Эта уязвимость представляет собой значительный прорыв в исследованиях безопасности AI, поскольку она демонстрирует, как злоумышленники могут автоматически извлекать наиболее конфиденциальную информацию из контекста Microsoft 365 Copilot, не требуя какого-либо взаимодействия с пользователем.

Соучредитель и технический директор Aim Security, Адир Грусс

Но как именно работал "EchoLeak"? По словам исследователей, это была "брешь в системе безопасности LLM". LLM (Large Language Model) – это, по сути, "мозг" Copilot, который позволяет ему понимать и отвечать на ваши вопросы. Уязвимость позволяла хакерам обмануть этот "мозг" и заставить его выдавать конфиденциальные данные, такие как:

  • История чатов
  • Документы из OneDrive
  • Контент из SharePoint
  • Разговоры в Teams

Самое неприятное, что, по словам Грусса, стандартные настройки Microsoft Copilot делали большинство организаций уязвимыми для атак, пока Microsoft не выпустила исправление.

Microsoft отреагировала на ситуацию следующим образом:

"Мы ценим Aim Labs за выявление и ответственное сообщение об этой проблеме, чтобы ее можно было решить до того, как это повлияет на наших клиентов".

Компания также заявила, что обновила свои продукты и внедрила дополнительные механизмы защиты для повышения безопасности Microsoft 365 Copilot.

Вопрос в том, насколько хорошо Microsoft сможет защитить свои AI-инструменты от будущих угроз. Ведь, как показал бывший архитектор безопасности Microsoft Майкл Баргури, существует множество способов обойти защитные барьеры Copilot.

Мнение редакции MSReview: Эта история подчеркивает, насколько важно постоянно следить за безопасностью AI-систем и улучшать ее, особенно когда речь идет об обработке конфиденциальных данных. Несмотря на то, что Microsoft быстро устранила проблему, "EchoLeak" служит напоминанием о потенциальных рисках, связанных с использованием искусственного интеллекта, и необходимости принятия мер для их предотвращения.

MSReview Источник:
www.windowscentral.com
  • 0




  • Комментарии
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.