OpenAI сливает личные данные пользователей API: что вам нужно знать
- Категория: Openai_and_chatgpt
- Дата: 27 ноября 2025 г. в 11:00
- Просмотров: 16

Очередная история про утечку данных, и на этот раз отличилась OpenAI. 😱 Пришло время узнать, что там произошло.
Сегодня многие пользователи получили письма от их команды безопасности. Судя по всему, в OpenAI случились проблемы посерьезнее, чем обычно. Утечка затронула имена, адреса электронной почты и даже примерные местоположения некоторых пользователей.
OpenAI уверяет, что пользователи ChatGPT в безопасности. 🛡️ Контент чатов, данные об использовании API, пароли, платежные реквизиты и документы, удостоверяющие личность — всё это осталось нетронутым. Но вот для тех, кто пользовался API-интерфейсами на платформе platform.openai.com, ситуация оказалась менее радужной.
Что именно, по словам OpenAI, оказалось под ударом:
- Имена, которые были указаны в аккаунтах на
platform.openai.com. - Адреса электронной почты, связанные с API-аккаунтами через
platform.openai.com. - "Грубое примерное местоположение", определенное по IP-адресу и браузеру.
- Тип операционной системы и браузера, а также сайты, с которых пришли пользователи.
- Названия организаций и идентификаторы пользователей, сохраненные в API-аккаунтах.
Вот что говорится в письме, отправленном пострадавшим:
«Прозрачность важна для нас, поэтому мы хотим проинформировать вас о недавнем инциденте безопасности у Mixpanel — поставщика аналитических данных, которого OpenAI использовала для веб-аналитики в интерфейсе нашего API-продукта (platform.openai.com). Инцидент произошел в системах Mixpanel и затронул ограниченные аналитические данные, связанные с вашим API-аккаунтом.
Мы хотим подчеркнуть: это не был взлом систем OpenAI. Никакие чаты, запросы к API, данные об использовании API, пароли, учетные данные, ключи API, платежные данные или государственные удостоверения личности не были скомпрометированы или раскрыты.
9 ноября 2025 года Mixpanel узнала, что злоумышленник получил несанкционированный доступ к части их систем и экспортировал набор данных, содержащий ограниченную идентифицирующую информацию о клиентах и аналитические данные. Mixpanel уведомила OpenAI о своем расследовании, и 25 ноября 2025 года они поделились с нами затронутым набором данных».
OpenAI заявила, что прекратила взаимодействие с Mixpanel и проводит собственное расследование. 🧐 А пользователей просят быть настороже и внимательнее относиться к фишинговым атакам и мошенническим схемам, которые могут попытаться использовать украденные данные.
OpenAI контролирует огромные массивы личной информации миллионов людей.
Ваши данные? Наши данные.
Это, кстати, не первый раз, когда OpenAI попадает в неловкую ситуацию из-за своего, скажем так, своеобразного отношения к конфиденциальности и безопасности пользователей. 😬 По мере того, как люди всё более свободно делятся личным и даже конфиденциальными организационными данными с ChatGPT и подобными системами, вопросы безопасности становятся всё более острыми как для OpenAI, так и для Microsoft.
Хотя в этот раз разговоры в ChatGPT и данные для верификации возраста не пострадали, такое случаться просто недопустимо.
Утечки такого рода сейчас, к сожалению, происходят сплошь и рядом. Я лично использую кучу разных почтовых ящиков для своих аккаунтов, чтобы избежать полного компромисса в случае взлома. Но это хлопотно. Потеря анонимности — это одно, но уверен, что многим пользователям ChatGPT не понравится, если их диалоги с ИИ вдруг всплывут в сети по разным причинам.
Радует, что OpenAI уведомила пользователей всего через два дня после получения данных, но в идеале, конечно, чтобы такого вообще не случалось.
И да, не забывайте включать двухфакторную аутентификацию везде, где только можно. Это реально помогает. 💪
Вот такая история с OpenAI. Очередной звоночек о том, насколько важна безопасность данных в век ИИ. Даже если утечка произошла у стороннего сервиса, ответственность все равно лежит на той компании, которая эти данные собирает и использует. Главное, что ChatGPT и API-ключи в безопасности, но расслабляться рано.
- Комментарии

