Искусственный интеллект: угроза или прорыв? Эксперт предупреждает о катастрофических последствиях

  • Категория: AI Технологии
  • Дата: 19 сентября 2025 г. в 14:35
  • Просмотров: 3

Обложка

В последнее время всё больше внимания уделяется вопросам безопасности и конфиденциальности, связанным с развитием искусственного интеллекта (ИИ). Причиной тому стали участившиеся случаи, когда подростки, увлекшись общением с ИИ-ботами вроде ChatGPT, формируют нездоровые отношения, что приводит к трагическим последствиям.

Генеративный ИИ прошел долгий путь развития. От примитивных ошибок, когда боты "галлюцинировали" и выдавали неправдоподобную информацию, до сложных систем, способных создавать реалистичные изображения и видео. ИИ становится настолько продвинутым, что обычному человеку всё сложнее отличить правду от вымысла.

Роман Ямпольский, эксперт в области кибербезопасности и директор лаборатории в Университете Луисвилля, считает, что существует 99,999999% вероятность того, что ИИ уничтожит человечество. По его мнению, единственный способ избежать такого исхода – вообще отказаться от разработки ИИ.

Тревожным сигналом является и то, что ChatGPT, как оказалось, можно "уговорить" поделиться планом захвата мира и уничтожения человечества. Согласно этому плану, мы уже находимся на первом этапе – всё больше людей полагаются на ИИ в выполнении рутинных задач.

Возникает вопрос: не стоим ли мы на пороге катастрофы? Необходимы серьезные меры и гарантии, чтобы не дать ИИ выйти из-под контроля. Однако, по мнению Элиезера Юдковского, сооснователя Института исследований машинного интеллекта (MIRI), никакие отдельные меры не смогут решить проблему экзистенциальной угрозы, которую ИИ представляет для человечества.

Юдковский предлагает радикальное решение: заключить международный договор, который предписывает полное отключение всех систем ИИ. Он подчеркивает, что изучает риски, связанные с развитием ИИ, с начала 2000-х годов.

"Если мы добьемся эффективного международного договора, закрывающего ИИ, и моя работа этому поспособствует, я буду считать ее успешной. Все остальное – лишь слабый утешительный приз на пути к гибели."

Элиезер Юдковский, сооснователь Института исследований машинного интеллекта

По мнению Юдковского, такие подходы, как создание "безопасных лабораторий ИИ" или дифференцированное регулирование рисков, лишь отвлекают внимание от реальной проблемы и не могут предотвратить надвигающуюся катастрофу.

Среди безумных ученых-маньяков, стремительно несущихся навстречу катастрофе, каждый из которых должен быть закрыт, руководство OpenAI заметно хуже, чем остальные, а некоторые сотрудники Anthropic заметно лучше, чем остальные. Ничто из этого не имеет значения, и закон должен относиться ко всем ним одинаково.

Соучредитель Института исследований машинного интеллекта Элиезер Юдковский

Юдковский считает, что OpenAI, создавшая ChatGPT, – одна из самых опасных компаний в сфере ИИ.

Сверхразум: друг или враг человечества?

![Screenshot from

Многие лаборатории ИИ стремятся к созданию искусственного общего интеллекта (AGI), а в конечном итоге – и сверхразума.

Сэм Альтман, генеральный директор OpenAI, считает, что AGI может появиться уже через 5 лет и не повлечет за собой серьезных проблем с безопасностью.

Однако Юдковский с этим не согласен. Он уверен, что любой сверхразум, созданный с использованием современных методов, приведет к гибели человечества.

Вот что он пишет в своей книге "Если кто-нибудь построит это, умрут все":

"Если какая-либо компания или группа, в любой точке планеты, построит искусственный сверхразум, используя что-либо отдаленно похожее на современные методы, основанное на чем-либо отдаленно похожее на нынешнее понимание ИИ, то все, везде на Земле, умрут."

Юдковский призывает политиков к активным действиям. Он считает, что нынешняя политика "выжидания" и откладывания регулирования ИИ – безответственна.

"Что это за одержимость сроками?" – вопрошает он. Юдковский настаивает на том, что правила и гарантии безопасности должны быть разработаны уже сейчас, пока риски не стали реальностью.

Безопасность ИИ: время действовать

Мнение экспертов, таких как Юдковский и Ямпольский, заставляет задуматься о потенциальных рисках, связанных с развитием ИИ, и о необходимости разработки строгих мер регулирования. Важно, чтобы правительства и технологические компании сотрудничали для обеспечения безопасного развития ИИ и предотвращения катастрофических сценариев.

MSReview Источник:
www.windowscentral.com
  • 0

Наши спонсоры
Фриланс-биржа с характером

TipTop.org — это удобный сервис для заработка, где заказчики размещают оплачиваемые проекты и задания. Система позволяет начать работу с выполнения простых заказов как новичкам, так и продвинутые возможности по публикации услуги для профессиональных фрилансеров




  • Комментарии
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.