Неужели интернет умирает? Как боты и ИИ могут изменить нашу онлайн-реальность

  • Категория: AI Технологии
  • Дата: 11 сентября 2025 г. в 16:15
  • Просмотров: 57

Обложка

Искусственный интеллект (ИИ) всё глубже проникает в нашу жизнь, влияя на медицину, образование, развлечения и многое другое. Но вместе с огромными перспективами возникают и серьёзные опасения. Некоторые эксперты даже считают, что ИИ может представлять угрозу для человечества.

Генеральный директор Google DeepMind Демис Хассабис предупреждает, что общий искусственный интеллект (AGI) может появиться совсем скоро, и общество не готово к последствиям. По его словам, эти перспективы не дают ему спать по ночам.

Существует теория "мёртвого интернета", согласно которой большая часть онлайн-контента создаётся ботами и ИИ, а не людьми. И вот, по мнению некоторых, эта теория может стать реальностью уже в ближайшие три года. Другими словами, мы рискуем утонуть в море фейков и автоматизированной информации.

Компания Imperva, занимающаяся кибербезопасностью, в своём отчёте "Bad Bot" за 2024 год утверждает, что почти половина всего интернет-трафика генерируется ИИ. Эта цифра выросла с 42,35% в 2021 году до 49,6% в 2023 году.

Рост AI-контента: что это значит для нас?

Если эта тенденция сохранится, то большая часть контента в интернете будет создаваться ботами и ИИ. Многие издания уже сейчас сокращают штат сотрудников и заменяют их искусственным интеллектом. Исследование Pew Research Center показало, что 38% веб-сайтов, созданных людьми после 2014 года, больше не существуют из-за "устаревания ссылок".

В прошлом году исследователи Amazon Web Services (AWS) выяснили, что 57% контента в интернете сгенерировано ИИ или переведено с его помощью, что негативно влияет на качество поиска. Представьте, как сложно будет найти нужную информацию в этом потоке фейков!

Microsoft и OpenAI столкнулись с исками о нарушении авторских прав, поскольку их инструменты, такие как Copilot и ChatGPT, используют онлайн-контент для обучения. Получается, что ИИ учится на наших данных, но кто защитит наши авторские права?

Интересно, что некоторые эксперты считают, что развитие ИИ может замедлиться из-за нехватки качественного контента для обучения. Получается, что ИИ нуждается в нас, людях, но сможет ли он отличить правду от лжи?

Что думает Сэм Альтман?

Даже генеральный директор OpenAI Сэм Альтман признаёт, что теория "мёртвого интернета" становится всё более актуальной:

"Я никогда не относился к теории мёртвого интернета серьёзно, но сейчас, похоже, действительно много аккаунтов в Твиттере, управляемых LLM (большие языковые модели)", - написал он в X.

Похоже, что ИИ начинает вытеснять традиционные поисковые системы, такие как Google и Bing. Многие пользователи предпочитают использовать ChatGPT и другие инструменты на базе ИИ для поиска информации.

Сам Сэм Альтман заявил, что больше не использует Google для поиска, а полагается на ChatGPT. Однако он сомневается, что ChatGPT сможет свергнуть Google с лидирующих позиций.

Google также внедряет ИИ в свой поиск, но результаты пока не впечатляют. Инструменты, такие как AI mode и AI Overviews, часто выдают неточные ответы и даже опасные советы.

В 2024 году бывший генеральный директор Twitter Джек Дорси заявил, что будет невозможно отличить реальное от поддельного из-за развития дипфейков и других технологий. Он призвал пользователей быть бдительными и лично проверять информацию.

Как вы думаете, ИИ и боты смогут захватить интернет и ухудшить качество поиска? Ваше мнение очень важно!

Мнение редакции MSReview: Теория "мёртвого интернета" становится всё более актуальной на фоне экспоненциального роста сгенерированного ИИ контента. Важно помнить о критическом мышлении и проверке информации в эпоху, когда размывается грань между реальностью и искусственным интеллектом. Обществу необходимо адаптироваться и развивать навыки распознавания подделок, чтобы не стать жертвой дезинформации и манипуляций.

MSReview Источник:
www.windowscentral.com
  • 0




  • Комментарии
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.