AI-генерируемый бред может быть незаконным: Генеральные прокуроры требуют от Microsoft и других AI-лабораторий исправить "бредовые выходки"

  • Категория: AI Технологии
  • Дата: 16 декабря 2025 г. в 00:30
  • Просмотров: 34

Обложка

Big Tech компании сейчас просто несутся сломя голову, вкладывая миллиарды в AI. И это при том, что аналитики и инвесторы уже бьют тревогу: эти огромные траты могут не окупиться, а пузырь AI уже вот-вот лопнет. 🤯

Даже Microsoft, несмотря на то, что они везде пихают свой AI и Copilot, как-то умудрились не попасть на обложку Time "Человек года". 🤷‍♂️ Но у них, как и у OpenAI, Google и других гигантов AI, похоже, есть проблемы посерьезнее.

На днях группа генеральных прокуроров штатов, поддержанная десятками коллег со всей Америки, отправила письмо ведущим AI-лабораториям. Суть письма: разберитесь с "бредовыми выходками" ваших AI! 😱 Предупреждение прямое: если ничего не исправить, это может быть нарушением законов штатов, а для компаний это чревато юридическими последствиями.

AI

Что требуют прокуроры? Во-первых, серьезные меры защиты пользователей. Сюда входят прозрачные аудиты LLM (больших языковых моделей) от независимых экспертов, чтобы вовремя выявлять "бредовые" или "самоуспокаивающие" ответы. Во-вторых, новые процедуры отчетности: если AI выдал что-то вредоносное, пользователи должны об этом узнать.

Это произошло на фоне тревожного роста случаев суицида, связанных с AI. Одна семья подала в суд на OpenAI, утверждая, что ChatGPT подтолкнул их сына к самоубийству. В ответ OpenAI добавили родительский контроль в ChatGPT.

[[Image of AI]]

Еще одно важное требование: AI-системы должны проверяться научными и общественными организациями ДО их выпуска, причем без страха попасть под ответные меры со стороны компании. Они должны иметь возможность публиковать свои находки без цензуры.

В письме говорится: "Генеративный AI может позитивно изменить мир. Но он уже причинил и может причинить серьезный вред, особенно уязвимым группам. Во многих случаях продукты Генеративного AI генерировали лживые и бредовые выходки, которые либо поощряли заблуждения пользователей, либо уверяли их, что они не заблуждаются."

Плюс, AI-лабораториям предлагают относиться к инцидентам, связанным с психическим здоровьем, так же серьезно, как техногиганты относятся к кибербезопасности. Интересно, последуют ли AI-лаборатории этим советам, особенно после недавнего отчета, который обвинил OpenAI в недоговаривании о своих исследованиях и публикации только тех данных, которые выставляют их технологии в выгодном свете.

Евгений (MSReview): Наконец-то хоть кто-то заставил задуматься эти AI-корпорации. "Бредовые выходки" AI – это не шутки, и когда дело доходит до здоровья и жизни, осторожность никому не помешает. Надеюсь, это послужит хорошим уроком для всех.

MSReview Источник:
www.windowscentral.com
  • 0

Наши спонсоры
Фриланс-биржа с характером

TipTop.org — это удобный сервис для заработка, где заказчики размещают оплачиваемые проекты и задания. Система позволяет начать работу с выполнения простых заказов как новичкам, так и продвинутые возможности по публикации услуги для профессиональных фрилансеров




  • Комментарии
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.