Сундар Пичаи (Google): Риск гибели от ИИ "довольно высок", но человечество может объединиться

Обложка

Генеративный искусственный интеллект (ИИ) стремительно ворвался в мир технологий, и сейчас все крупные компании вкладывают огромные средства в эту область, пытаясь угнаться за лидерами вроде OpenAI.

!Изображение 1

Однако, на пути развития ИИ есть серьезные препятствия, в частности, вопросы конфиденциальности и безопасности. Но, пожалуй, самое тревожное — это утверждения о том, что существует пусть и небольшая, но реальная вероятность того, что ИИ может привести к гибели человечества.

Генеральный директор OpenAI Сэм Альтман считает, что угрозы от ИИ не проявятся в момент достижения AGI (Artificial General Intelligence, или "сильный" ИИ). По его мнению, этот рубеж будет достигнут в ближайшие 5 лет и пройдет относительно незаметно для общества.

Однако, генеральный директор Google Сундар Пичаи, похоже, не разделяет оптимизма Альтмана. В недавнем подкасте Лекса Фридмана он заявил:

Я оптимистично смотрю на различные сценарии, но... основной риск [гибели от ИИ] довольно высок.

Что интересно, Пичаи верит, что человечество способно объединиться, чтобы предотвратить катастрофу. Сэм Альтман, в свою очередь, ранее заявлял, что ИИ будет достаточно умен, чтобы предотвратить свою гибель и, как следствие, гибель человечества.

Это смелое заявление, особенно учитывая, что мнения в мире относительно развития ИИ разделились.

!Изображение 2

Интересно, что бывший исследователь OpenAI Даниэль Кокотайло недавно рассказал, что Илон Маск, Сэм Альтман и Илья Суцкевер создали OpenAI как "противовес" плану генерального директора DeepMind Демиса Хассабиса стать "диктатором AGI".

По словам Кокотайло, Хассабис планировал использовать ресурсы Google, чтобы первым достичь "сильного" ИИ, а затем заняться вопросами безопасности.

Любопытно, что сам Хассабис недавно заявил, что AGI может появиться совсем скоро, но предупредил, что общество может быть не готово к этому. Он признался, что эти перспективы не дают ему спать по ночам.

Мнение редакции: Ситуация с развитием ИИ становится все более напряженной. С одной стороны, мы видим огромный потенциал для прогресса и улучшения жизни людей, с другой - реальную угрозу экзистенциальной катастрофы. Важно, чтобы разработчики и регуляторы действовали с максимальной ответственностью и прозрачностью, чтобы минимизировать риски и обеспечить безопасное будущее для человечества.

MSReview Источник:
www.windowscentral.com
  • 0




  • Комментарии
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.