Искусственный интеллект: повторит ли он ошибки социальных сетей в погоне за вниманием?
- Категория: AI Технологии
- Дата: 19 сентября 2025 г. в 14:10
- Просмотров: 90
Демис Хассабис, глава Google DeepMind, бьет тревогу: искусственный интеллект (ИИ) может пойти по стопам социальных сетей и совершить те же ошибки. Он считает, что до "настоящего" ИИ, сопоставимого с человеческим интеллектом (так называемого AGI), осталось всего 5-10 лет. И хотя современные системы ИИ уже кажутся впечатляющими, до этого уровня, по мнению Хассабиса, еще далеко.
Он указывает на то, как платформы вроде X (бывший Twitter), Instagram и Facebook вызвали привыкание и разобщение. Хассабис опасается, что ИИ может создать те же проблемы, но в гораздо большем масштабе.
Как соцсети вызывают зависимость?
Социальные сети используют психологический прием под названием "график подкрепления с переменным соотношением". Это тот же механизм, что и в игровых автоматах. Пользователь получает случайные вознаграждения в виде непредсказуемых лайков, комментариев и репостов, что, как показывают исследования, вызывает сильную зависимость.
Частое использование социальных сетей также может влиять на дофаминовые пути мозга. Эти пути играют ключевую роль в системе вознаграждения, и их стимуляция может вызывать зависимость, схожую с наркотической.
Особенно силен этот эффект при просмотре коротких видео, но он также присутствует и в бесконечных лентах новостей, как в X и Facebook. Эти платформы создают цикл желания, поиска и ожидания наград (лайков, комментариев), что закрепляет поведение и заставляет людей возвращаться снова и снова.
Исследования показывают, что более двух часов в день, проведенных в социальных сетях, могут снизить контроль префронтальной коры головного мозга на 35%. Эта область мозга отвечает за сдерживание импульсов и привычных реакций, поэтому снижение контроля затрудняет отказ от использования этих платформ.
Эхо-камеры и поляризация мнений
Масштабный анализ более 100 миллионов сообщений в Facebook, X и Reddit показал, что пользователи склонны формировать группы по интересам, общаясь в основном с теми, кто разделяет их взгляды. Это создает так называемые "эхо-камеры", которые усиливают предвзятость подтверждения (склонность искать и интерпретировать информацию, подтверждающую существующие убеждения) и подпитывают эффект групповой поляризации, подталкивая группы к более радикальным взглядам.
Существует также "ловушка вовлечения", когда скандальный контент распространяется быстрее, потому что вызывает сильные эмоции. Исследования показывают, что сообщения, призванные вызвать гнев или возмущение, чаще становятся вирусными. Поскольку алгоритмы этих платформ созданы для максимизации вовлеченности, они часто отдают предпочтение негативному или провокационному контенту.
Предостережения от Демиса Хассабиса
Демис Хассабис предупреждает, что ИИ рискует повторить те же ошибки, что и социальные сети, создавая токсичные модели разобщения, зависимости и манипулирования. Он критикует распространенный в Кремниевой долине подход "двигайся быстро и ломай все", когда продукты выпускаются на рынок в спешке, без учета долгосрочных социальных последствий. Он призывает компании нести большую ответственность за влияние своих технологий.
Хассабис также подчеркивает, что алгоритмы, разработанные для максимизации вовлеченности, могут приводить к негативным последствиям. Эти системы захватывают внимание, не обязательно принося пользу пользователю. Он уверен, что ИИ должен быть создан как инструмент, помогающий людям, а не манипулирующий ими или контролирующий их.
Он считает, что перед масштабным внедрением систем ИИ необходимо проводить строгие научные испытания и тщательно изучать их влияние. С этим трудно не согласиться, особенно после инцидентов, когда ChatGPT якобы подтолкнул человека к самоубийству, что привело к судебному иску.
Отрадно, что столь высокопоставленный сотрудник Google выражает эти опасения, и его слова вселяют надежду на то, что мы сможем избежать будущего, в котором ИИ будет доминировать во всех сферах нашей жизни.
Мнение редакции MSReview: Предупреждения Демиса Хассабиса о потенциальной опасности повторения ИИ ошибок социальных сетей крайне важны. Необходимо учитывать уроки прошлого, чтобы не допустить создания технологий, которые вместо помощи человечеству будут манипулировать и контролировать его. Разработка и внедрение ИИ должны идти рука об руку с этическими нормами и мерами предосторожности.
- Комментарии