Сундар Пичаи (Google): Риск гибели от ИИ "довольно высок", но человечество может объединиться
- Категория: AI Технологии
- Дата: 27 июня 2025 г. в 00:41
- Просмотров: 110
Генеративный искусственный интеллект (ИИ) стремительно ворвался в мир технологий, и сейчас все крупные компании вкладывают огромные средства в эту область, пытаясь угнаться за лидерами вроде OpenAI.
!Изображение 1
Однако, на пути развития ИИ есть серьезные препятствия, в частности, вопросы конфиденциальности и безопасности. Но, пожалуй, самое тревожное — это утверждения о том, что существует пусть и небольшая, но реальная вероятность того, что ИИ может привести к гибели человечества.
Генеральный директор OpenAI Сэм Альтман считает, что угрозы от ИИ не проявятся в момент достижения AGI (Artificial General Intelligence, или "сильный" ИИ). По его мнению, этот рубеж будет достигнут в ближайшие 5 лет и пройдет относительно незаметно для общества.
Однако, генеральный директор Google Сундар Пичаи, похоже, не разделяет оптимизма Альтмана. В недавнем подкасте Лекса Фридмана он заявил:
Я оптимистично смотрю на различные сценарии, но... основной риск [гибели от ИИ] довольно высок.
Что интересно, Пичаи верит, что человечество способно объединиться, чтобы предотвратить катастрофу. Сэм Альтман, в свою очередь, ранее заявлял, что ИИ будет достаточно умен, чтобы предотвратить свою гибель и, как следствие, гибель человечества.
Это смелое заявление, особенно учитывая, что мнения в мире относительно развития ИИ разделились.
!Изображение 2
Интересно, что бывший исследователь OpenAI Даниэль Кокотайло недавно рассказал, что Илон Маск, Сэм Альтман и Илья Суцкевер создали OpenAI как "противовес" плану генерального директора DeepMind Демиса Хассабиса стать "диктатором AGI".
По словам Кокотайло, Хассабис планировал использовать ресурсы Google, чтобы первым достичь "сильного" ИИ, а затем заняться вопросами безопасности.
Любопытно, что сам Хассабис недавно заявил, что AGI может появиться совсем скоро, но предупредил, что общество может быть не готово к этому. Он признался, что эти перспективы не дают ему спать по ночам.
Мнение редакции: Ситуация с развитием ИИ становится все более напряженной. С одной стороны, мы видим огромный потенциал для прогресса и улучшения жизни людей, с другой - реальную угрозу экзистенциальной катастрофы. Важно, чтобы разработчики и регуляторы действовали с максимальной ответственностью и прозрачностью, чтобы минимизировать риски и обеспечить безопасное будущее для человечества.
- Комментарии