ChatGPT стер два года работы профессора: Страшилка для всех, кто использует AI!
- Категория: AI Технологии
- Дата: 26 января 2026 г. в 19:30
- Просмотров: 17

Уух, ребята, это просто какая-то жесть! 🤯 Представьте себе, мой знакомый, профессор в области науки о растениях, решил доверить свои исследования ChatGPT, а тот его просто взял и стер два года работы одним кликом. И всё, назад дороги нет! 😭
Эта история – прямое напоминание, что за всю эту AI-удобность приходится расплачиваться реальными рисками. Мир, конечно, уже давно в цифре, никаких вам больше флешек и бумажек. Все в облака, Google Drive, OneDrive, iCloud... Но, как оказалось, и там не всё так гладко.
Были же уже случаи: один программист потерял 10 лет данных в AWS, но там хоть человек нашелся, который помог. Другой пользователь OneDrive вообще остался без 30 лет фоток и работы, поддержка Microsoft разводила руками.
Но тут вообще дичь! Профессор из Кёльна, Марсель Бухер, рассказал, что ChatGPT Plus стер ему два года работы: заявки на гранты, учебные материалы, черновики статей. Он использовал сервис для всего: от писем до подготовки лекций и анализа ответов студентов.
Сам профессор говорит: "Я-то знал, что большие языковые модели могут выдавать уверенные, но иногда ошибочные утверждения, поэтому никогда не полагался на их точность. Но я рассчитывал на стабильность рабочей среды."
И вот, решил он проверить, что будет, если отключить опцию "согласия на использование данных". И тут – БАЦ! 💥 Все чаты удалены, папки очищены, два года работы – пффф, и нет их. Ни предупреждения, ни возможности "отменить". Просто пустая страница. Часть материалов он успел сохранить, но большая часть – безвозвратно!
Профессор сначала подумал, что это какая-то ошибка, перепробовал всё: разные браузеры, устройства, чистил кэш, переустанавливал. Ничего не помогло. Попытался связаться с OpenAI – сначала отвечал какой-то бот, потом кое-как удалось выйти на живого человека. Но данные восстановить так и не смогли.
OpenAI ответили, что у них есть подтверждение перед удалением чата, но после удаления его никак не восстановить – ни через интерфейс, ни через поддержку, ни через API. Это, мол, отвечает требованиям конфиденциальности. И главное – они рекомендуют пользователям самим делать резервные копии своих профессиональных данных.
Профессор считает, что для профессионального использования ChatGPT пока небезопасен. Он платит за сервис и ожидал элементарных мер защиты: предупреждения о необратимом удалении, возможность восстановления (хотя бы временную) и резервные копии.
Так что, друзья, это вам не шутки. История прямо кричит: "Делайте бэкапы! Делайте больше бэкапов!" Даже если ваши данные в облаке, лучше иметь и физическую копию.
Потерять два года работы за секунду – это реально кошмар. По мере того, как AI проникает во все сферы нашей жизни, такие инциденты заставят компании задуматься о защите данных, иначе они просто потеряют доверие.
В целом, история, конечно, поучительная. AI – это мощный инструмент, но слепо ему доверять нельзя. Всегда нужно помнить о резервном копировании, особенно когда речь идет о важных данных. OpenAI, конечно, правы, что пользователи должны сами заботиться о своих файлах, но и разработчики могли бы сделать процесс удаления данных более безопасным Евгений (MSReview)
- Комментарии

