ChatGPT стер два года работы профессора: Страшилка для всех, кто использует AI!

Обложка

Уух, ребята, это просто какая-то жесть! 🤯 Представьте себе, мой знакомый, профессор в области науки о растениях, решил доверить свои исследования ChatGPT, а тот его просто взял и стер два года работы одним кликом. И всё, назад дороги нет! 😭

Эта история – прямое напоминание, что за всю эту AI-удобность приходится расплачиваться реальными рисками. Мир, конечно, уже давно в цифре, никаких вам больше флешек и бумажек. Все в облака, Google Drive, OneDrive, iCloud... Но, как оказалось, и там не всё так гладко.

Были же уже случаи: один программист потерял 10 лет данных в AWS, но там хоть человек нашелся, который помог. Другой пользователь OneDrive вообще остался без 30 лет фоток и работы, поддержка Microsoft разводила руками.

Но тут вообще дичь! Профессор из Кёльна, Марсель Бухер, рассказал, что ChatGPT Plus стер ему два года работы: заявки на гранты, учебные материалы, черновики статей. Он использовал сервис для всего: от писем до подготовки лекций и анализа ответов студентов.

Сам профессор говорит: "Я-то знал, что большие языковые модели могут выдавать уверенные, но иногда ошибочные утверждения, поэтому никогда не полагался на их точность. Но я рассчитывал на стабильность рабочей среды."

И вот, решил он проверить, что будет, если отключить опцию "согласия на использование данных". И тут – БАЦ! 💥 Все чаты удалены, папки очищены, два года работы – пффф, и нет их. Ни предупреждения, ни возможности "отменить". Просто пустая страница. Часть материалов он успел сохранить, но большая часть – безвозвратно!

Профессор сначала подумал, что это какая-то ошибка, перепробовал всё: разные браузеры, устройства, чистил кэш, переустанавливал. Ничего не помогло. Попытался связаться с OpenAI – сначала отвечал какой-то бот, потом кое-как удалось выйти на живого человека. Но данные восстановить так и не смогли.

OpenAI ответили, что у них есть подтверждение перед удалением чата, но после удаления его никак не восстановить – ни через интерфейс, ни через поддержку, ни через API. Это, мол, отвечает требованиям конфиденциальности. И главное – они рекомендуют пользователям самим делать резервные копии своих профессиональных данных.

Профессор считает, что для профессионального использования ChatGPT пока небезопасен. Он платит за сервис и ожидал элементарных мер защиты: предупреждения о необратимом удалении, возможность восстановления (хотя бы временную) и резервные копии.

Так что, друзья, это вам не шутки. История прямо кричит: "Делайте бэкапы! Делайте больше бэкапов!" Даже если ваши данные в облаке, лучше иметь и физическую копию.

Потерять два года работы за секунду – это реально кошмар. По мере того, как AI проникает во все сферы нашей жизни, такие инциденты заставят компании задуматься о защите данных, иначе они просто потеряют доверие.

В целом, история, конечно, поучительная. AI – это мощный инструмент, но слепо ему доверять нельзя. Всегда нужно помнить о резервном копировании, особенно когда речь идет о важных данных. OpenAI, конечно, правы, что пользователи должны сами заботиться о своих файлах, но и разработчики могли бы сделать процесс удаления данных более безопасным Евгений (MSReview)

MSReview Источник:
www.windowscentral.com
  • 0

Наши спонсоры
Фриланс-биржа с характером

TipTop.org — это удобный сервис для заработка, где заказчики размещают оплачиваемые проекты и задания. Система позволяет начать работу с выполнения простых заказов как новичкам, так и продвинутые возможности по публикации услуги для профессиональных фрилансеров




  • Комментарии
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.