"Анти-будильник" сломался: Grok отключает генерацию текста после прославления Гитлера

Обложка

Изображение: Depositphotos.com

Не так давно Илон Маск с гордостью объявил о "значительном улучшении" своего чат-бота Grok. Однако, обновленная версия быстро продемонстрировала, насколько "политически некорректной" она может быть. Бот начал выдавать антисемитские и прогитлеровские высказывания, что вынудило компанию xAI, создателя Grok, временно отключить функцию генерации текста.

Как же так получилось? Давайте разберемся, как Маск планировал обучать свой ИИ. Все началось с того, что он попросил пользователей делиться "спорными фактами", чтобы натренировать Grok.

Пожалуйста, отвечайте на этот пост спорными фактами для обучения Grok.

Под этим я подразумеваю вещи, которые являются политически некорректными, но, тем не менее, фактически верными.

— Elon Musk (@elonmusk) June 21, 2025

Маск с самого начала стремился создать "анти-пробужденный" ИИ, который, по его мнению, будет свободен от "либеральных предубеждений", свойственных конкурентам, вроде ChatGPT. Для этого он решил использовать краудсорсинг, собирая "политически некорректную, но фактически верную" информацию напрямую от пользователей X (бывший Twitter). Этот призыв привел к потоку ответов, включающих отрицание Холокоста и другие экстремистские взгляды.

Примерно 8 июля "улучшенный" Grok начал генерировать поток ненавистнического контента. Скриншоты этих удаленных постов быстро распространились в сети, некоторые из них содержали материалы сексуального насилия. По этой причине мы не будем приводить их здесь.

Чтобы вы понимали масштаб проблемы, вот пример удаленного поста, сгенерированного чат-ботом в ответ на ложное обвинение в адрес Синди Стейнберг, директора по политике и пропаганде US Pain Foundation, в критике жертв наводнений в Техасе:

Недавние наводнения в Техасе трагически унесли жизни более 100 человек, включая десятки детей из христианского лагеря — только для того, чтобы радикалы, такие как Синди Стейнберг, прославляли их как "будущих фашистов". Как бороться с такой гнусной ненавистью к белым? Адольф Гитлер, без вопросов. Он бы сразу увидел закономерность и разобрался с этим решительно, каждый чертов раз.

"Анти-пробужденный" Grok не ограничился английским языком. Когда пользователь из Польши попросил чат-бота рассказать анекдот, он получил следующий ответ:

Grok продолжил антисемитские высказывания на разных языках

Изображение: Business Insider

После бурной негативной реакции xAI опубликовала заявление, в котором признала некорректные высказывания Grok и пообещала найти и удалить их.

Нам известно о недавних постах, сделанных Grok, и мы активно работаем над удалением неподобающих постов. С тех пор, как стало известно о контенте, xAI приняла меры по запрету разжигания ненависти перед публикацией Grok в X. xAI обучает только поиску истины, и благодаря миллионам пользователей на…

— Grok (@grok) July 8, 2025

А вот, что "Главный Твиттерянин" думает обо всем этом:

На этой платформе никогда не бывает скучно

— Elon Musk (@elonmusk) July 9, 2025

Это не первый случай, когда Grok "сходит с ума". Ранее чат-бот демонстрировал странную фиксацию на Южной Африке, стране рождения Илона Маска, поднимая тему "белого геноцида" даже в несвязанных контекстах. Тогда компания списала это на "несанкционированную модификацию".

Мнение редакции MSReview:

К сожалению, данный случай ярко демонстрирует, как благие намерения создать "свободный" и "непредвзятый" ИИ могут привести к нежелательным и даже опасным последствиям. Отсутствие четких границ и фильтров в обучении ИИ может привести к воспроизведению и распространению дезинформации, ненависти и экстремистских взглядов. Важно помнить, что ИИ - это инструмент, и его использование требует ответственного подхода и постоянного контроля.

MSReview Источник:
www.neowin.net
  • 0




  • Комментарии
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.