Будущее уже здесь: как ИИ меняет наши отношения и почему это может быть странно
- Категория: AI Технологии
- Дата: 20 августа 2025 г. в 14:45
- Просмотров: 73
Генеральный директор OpenAI, Сэм Альтман, недавно поделился своими мыслями о будущем искусственного интеллекта (ИИ) и проблемах, с которыми сталкивается эта быстро развивающаяся отрасль. В интервью изданию The Verge он обсудил ChatGPT, признал, что OpenAI, возможно, "испортила" пользовательский опыт ChatGPT, и затронул деликатную тему — нездоровые отношения между людьми и ИИ.
Именно последний пункт вызвал наибольший интерес. Альтман отметил, что лишь небольшой процент пользователей ChatGPT (гораздо меньше 1%) демонстрируют признаки нездоровой привязанности к инструменту. Затем он обозначил границу, которую OpenAI переступать не намерена:
"Вы наверняка увидите, как некоторые компании начнут создавать японских аниме секс-ботов, потому что они почувствуют, что нашли здесь что-то, что работает. Но мы этим заниматься не будем. Мы продолжим усердно работать над созданием полезных приложений и постараемся дать пользователям возможность использовать их так, как они хотят, но не настолько, чтобы люди с хрупкой психикой случайно подвергались эксплуатации."
После критики в адрес GPT-4o, которую обвиняли в недостаточной эмоциональности и излишней "корпоративности", становится понятно, почему Альтман признает спрос на ИИ-собеседников, с которыми люди могли бы общаться как с друзьями.
После запуска GPT-5, пользователи сразу же начали критиковать новую модель, за то, что она не воспроизводит человеческие эмоции. GPT-5 быстро подхватили онлайн-сообщества, члены которых рассматривали GPT-4o как своего "лучшего друга" или "родственную душу".
В итоге OpenAI решила вернуть GPT-4o, хотя и на платной основе. Альтман также подчеркнул риски чрезмерной зависимости от ИИ: "Люди использовали технологии, включая ИИ, деструктивными способами. Если пользователь психически нестабилен и склонен к заблуждениям, мы не хотим, чтобы ИИ это подкреплял". Он добавил, что небольшой процент пользователей не может отличить "реальность от вымысла или ролевой игры".
ИИ как друг: благо или опасность?
Генеральный директор Microsoft AI Мустафа Сулейман считает, что ИИ может стать "настоящим другом" для пользователей.(Image credit: Getty Images | Bloomberg)
Концепция ИИ, становящегося другом, вызывает много споров. Мустафа Сулейман, генеральный директор Microsoft AI, придерживается иного мнения, чем Альтман. В недавнем интервью он заявил, что ИИ будет развиваться вместе с пользователями, становясь им понятным и близким.
"Я думаю, что это перерастет в прочные, значимые отношения, — сказал он. — У людей появится настоящий друг, который со временем узнает вас, учится у вас и всегда готов поддержать".
Сулейман также отметил, что у Copilot формируется "постоянная идентичность, присутствие". Он даже предсказал, что у Copilot будет "своя комната", и что этот ИИ-инструмент будет "стареть". Microsoft уже делает шаги в этом направлении, тестируя "выразительные аватары" для Copilot.
Альтман, напротив, заявил, что не хотел бы, чтобы его сын дружил с ИИ-ботом. Предупреждая об опасностях привыкания к ИИ, он сказал: "Я не думаю, что это плохо само по себе. Но мы должны понимать это и внимательно следить за развитием ситуации".
Он также подчеркнул важность обеспечения положительного влияния ИИ на общество:
"Я могу представить будущее, где многие люди будут доверять советам ChatGPT в принятии самых важных решений. Хотя в этом есть и положительные стороны, меня это беспокоит. Я ожидаю, что это произойдет в определенной степени, и вскоре миллиарды людей будут общаться с ИИ подобным образом. Поэтому мы (как общество, но и мы как OpenAI) должны понять, как сделать так, чтобы это принесло большую пользу."
Альтман реалистично оценивает перспективу появления ИИ-собеседников для взрослых. По правде говоря, многие не удивятся, если они уже существуют. Однако, по словам Альтмана, OpenAI не планирует заниматься подобными разработками.
Мнение редакции:
Важно помнить, что ИИ все еще находится на ранних стадиях развития. Этические соображения и потенциальные риски, связанные с ИИ-компаньонами, требуют тщательного изучения и постоянного диалога между разработчиками, политиками и обществом.
- Комментарии