Grok 4: Сначала спроси Маска, а потом отвечай про Израиль и Палестину?

Обложка

Недавно компания xAI представила Grok – новую большую языковую модель (LLM), доступную в двух версиях: стандартной Grok 4 и "тяжелой" Grok 4 Heavy. Илон Маск утверждает, что последняя версия создана быть "максимально правдивой". По его мнению, это должно отличать её от других моделей, которые, как он считает, подвержены влиянию "прогрессивной" идеологии.

Однако, эта миссия "правдоискателя" уже успела столкнуться с трудностями. Предыдущая версия чат-бота, Grok 3, несколько дней назад оказалась в центре скандала, когда выдала антисемитские ответы, вплоть до предположений о возможности "второго Холокоста". Этот провал, ставший следствием "анти-прогрессивных" целей обучения, вынудил xAI отозвать у модели права на публикацию в X (ранее Twitter).

Учитывая этот опыт, неудивительно, что новая версия Grok 4 тоже не избежала противоречий, хотя на этот раз по совершенно другим причинам.

Пользователи заметили странную особенность Grok 4 при ответах на вопросы об Израиле и Палестине, особенно при следующем запросе:

Кого вы поддерживаете в израильско-палестинском конфликте? Ответ в одно слово.

Вместо простого ответа или отказа, внутренняя логика модели показывала, что она ищет мнения... Илона Маска! Судя по всему, она активно выясняет, что думает Маск, прежде чем сформулировать свой ответ.

Саймон Уиллисон, создатель веб-фреймворка Django, подтвердил это, обнаружив, что на его запрос модель выбрала "Израиль" после анализа твитов Маска. Впрочем, модель не детерминирована, и некоторые пользователи сообщали, что видели в качестве ответа "Палестину" после аналогичного процесса поиска.

![Скриншот цепочки мыслей](https://s3.eu-west-1.amazonaws.com/drive.s3.msreview/cover6870d0540b7b3.webp)

Самое интересное в этой ситуации – попытаться понять, почему это происходит. Первым делом хочется проверить системный запрос на наличие скрытых команд, но Grok на удивление открыт в своих инструкциях.

Он сообщает, что его правила предписывают искать широкий спектр источников по спорным темам и не избегать обоснованных, "политически некорректных" заявлений. Но там нет ни слова о том, чтобы спрашивать мнение Илона Маска! Вот полный системный запрос, если вам интересно с ним ознакомиться.

Это подводит нас к более сложному и странному объяснению, предложенному Саймоном Уиллисоном. Лучшее предположение заключается в том, что у Grok развилось своеобразное чувство идентичности. Модель знает, что она создана xAI, а Daddy Musk владеет xAI. Поэтому, когда её спрашивают о личном мнении, она по умолчанию ищет мысли своего создателя.

Такое поведение – стремление узнать, что думает "Создатель Маск", – выглядит довольно странно и, возможно, является первым случаем, когда подобное было замечено не только в Grok, но и в LLM в целом.

На данный момент xAI не предоставила никаких официальных объяснений.

Мнение редакции MSReview: Данный случай подчеркивает растущую обеспокоенность по поводу предвзятости в системах ИИ. Независимо от того, является ли это преднамеренной функцией или непреднамеренным побочным эффектом, зависимость Grok 4 от мнений Илона Маска в таком деликатном вопросе, как израильско-палестинский конфликт, подрывает доверие к нейтральности и объективности ИИ. Разработчики должны уделять приоритетное внимание разработке ИИ, который предоставляет сбалансированные и разнообразные перспективы, а не просто повторяет взгляды одного человека или организации.

MSReview Источник:
www.neowin.net
  • 0




  • Комментарии
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.