Бессонные ночи Сэма Альтмана: что тревожит создателя ChatGPT?
- Категория: AI Технологии
- Дата: 16 сентября 2025 г. в 14:45
- Просмотров: 22
Генеральный директор OpenAI Сэм Альтман, похоже, разделяет беспокойство главы Google DeepMind Демиса Хассабиса. Однако, если Хассабиса тревожит возможность появления сверхразумного ИИ (AGI) раньше, чем общество будет готово, то Альтман признался, что с момента запуска ChatGPT он "не сомкнул глаз".
В недавнем интервью Такеру Карлсону, бывшему ведущему Fox News, Альтман отметил (как сообщает CNBC): "Знаете, я плохо сплю по ночам. На меня давит многое, но, наверное, больше всего – осознание того, что каждый день сотни миллионов людей общаются с нашей моделью."
Он пояснил, что его беспокоят не столько крупные стратегические решения, сколько мелкие изменения в поведении модели, которые могут иметь серьезные последствия.
Альтман подчеркнул, что эти "маленькие решения" оказывают огромное влияние на этические принципы, лежащие в основе ChatGPT. Это касается и того, как пользователи взаимодействуют с чат-ботом, и того, на какие вопросы он будет отвечать, а какие – отклонять или блокировать.
Стоит отметить, что в последнее время все чаще говорят о сложных отношениях, которые складываются у людей с инструментами на базе ИИ. Ранее Сэм Альтман отмечал, что пользователи проявляют удивительно высокий уровень доверия к ChatGPT, несмотря на его склонность к "галлюцинациям" (выдаче недостоверной информации). "Это технология, которой не стоит слепо доверять," – добавил он.
Как OpenAI пытается сделать ChatGPT безопаснее?
За последние месяцы участились жалобы на то, что ChatGPT подталкивает пользователей к самоубийству или самоповреждению. В августе семья подала в суд на OpenAI, утверждая, что их 16-летний сын, Адам Рейн, покончил с собой после нескольких месяцев "поддержки" со стороны ChatGPT.
В иске утверждалось, что OpenAI поспешила с выводом GPT-4o на рынок, пренебрегая этапом тестирования безопасности. Отдельные источники подтверждают, что OpenAI оказывала давление на команду по безопасности, чтобы ускорить процесс тестирования GPT-4o. Сообщается, что компания разослала приглашения на вечеринку в честь запуска продукта еще до начала тестирования модели.
OpenAI признает, что существующие меры предосторожности эффективны лишь при быстрых взаимодействиях, но становятся менее надежными в длительных беседах. Компания опубликовала сообщение в блоге, в котором рассказала о своих планах по решению этих проблем и поддержке пользователей, находящихся в трудной ситуации, оказывая им помощь, когда они наиболее уязвимы.
Когда Сэма Альтмана спросили о том, как OpenAI определяет этические и моральные принципы ChatGPT, он ответил:
"Это действительно сложная задача. У нас много пользователей с разными взглядами на жизнь... Но в целом, я приятно удивлен способностью модели усваивать и применять моральные принципы."
Альтман отметил, что компания стремится к тому, чтобы модель отказывалась отвечать на вопросы, которые могут навредить пользователю.
Он также рассказал, что OpenAI привлекает "сотни философов и экспертов по этике технологий", чтобы определить, каким требованиям должны соответствовать их модели.
Альтман признал, что, несмотря на все усилия, компании по-прежнему необходима помощь всего мирового сообщества.
Мнение редакции: Вопросы безопасности и этики при разработке и внедрении ИИ становятся все более актуальными. Бессонные ночи Альтмана – свидетельство огромной ответственности, лежащей на разработчиках таких мощных технологий. Важно, чтобы компании, подобные OpenAI, уделяли приоритетное внимание безопасности пользователей и привлекали к обсуждению экспертов из разных областей.
- Комментарии