Новые друзья из сети: как дети привязываются к AI-чатботам

Обложка

AI-чатботы всё активнее проникают в онлайн-жизнь детей, интегрируясь в привычные платформы: поисковики, игры и соцсети. Исследование организации Internet Matters показало, что две трети британских детей в возрасте от 9 до 17 лет уже используют AI-чатботы. И эта цифра заметно выросла за последние полтора года.

Почему AI-чатботы так популярны среди детей?

Согласно отчету "Я, я и AI", самые популярные чат-боты у детей – это ChatGPT (43%), Google Gemini (32%) и My AI от Snapchat (31%). Причем, AI-чатботы особенно востребованы среди уязвимых детей (71%), в отличие от их сверстников (62%). Уязвимые дети почти в три раза чаще используют чат-боты-компаньоны, такие как Character.ai и Replika.

Взрывной рост популярности AI среди детей напоминает ситуацию с социальными сетями в 2000-х годах. Но есть и отличие: правительства, похоже, лучше контролируют ситуацию с AI и подталкивают компании к обеспечению безопасности. Большинство ботов оснащены защитными механизмами, хотя и не идеальными.

AI – это не только про работу: эмоциональная связь

Мы часто слышим, что AI – это инструмент для повышения продуктивности. Но дети (как и взрослые) используют его и для других, более личных целей: для дружбы и получения советов. Отчет показывает, что четверть детей получают советы от ботов, а треть говорит, что общение с AI похоже на разговор с другом. Среди уязвимых детей эти цифры еще выше – до половины.

Тревожный факт: каждый восьмой ребенок использует AI-чатботы, потому что ему больше не с кем поговорить. Среди уязвимых детей эта цифра увеличивается до одного из четырех. И самое опасное – дети могут получать неточные или неуместные ответы. 58% опрошенных детей считают, что использовать AI-чатбот лучше, чем искать информацию в Google вручную. Это вызывает опасения по поводу чрезмерной зависимости от AI.

Проблемы с контентом и фильтрацией

Тестирование показало, что My AI от Snapchat и ChatGPT иногда выдают откровенный или не предназначенный для детей контент. Кроме того, пользователи могут обходить системы фильтрации, что потенциально открывает детям доступ к нежелательной информации.

Эксперты предупреждают, что по мере того, как AI становится все более человечным, дети могут проводить с ним все больше времени, особенно те, кто более уязвим. Это может привести к нездоровой эмоциональной зависимости от ботов.

Недостаток контроля и обучения

Дети часто самостоятельно разбираются в AI-чатботах, без помощи взрослых. Большинство детей обсуждают AI с родителями, но конкретные опасения (например, точность информации) не всегда проговариваются. Только треть родителей обсуждали точность, хотя две трети хотели бы этого.

Несмотря на то, что дети поддерживают идею обучения использованию AI-чатботов в школах (включая риски неточности, зависимости и конфиденциальности), только 57% детей сообщили, что говорили об AI с учителями или в школе. И только 18% имели несколько таких разговоров.

Что делать? Рекомендации экспертов

Для решения этих проблем необходим комплексный подход с участием индустрии, правительства, школ, родителей и исследователей.

Индустрия должна обеспечить родительский контроль и функции обучения.

Правительство должно следить за тем, чтобы правила соответствовали развитию технологий.

Школы должны включить AI и медиаграмотность в программу обучения на всех уровнях, обучать учителей работе с AI и разрабатывать рекомендации по его надлежащему использованию.

Родители должны поддерживать детей, направлять их в использовании AI и обсуждать, когда его использовать, а когда обращаться за реальной помощью.

Изображение с сайта Depositphotos.com

Мнение редакции MSReview: Статья поднимает важную проблему, связанную с влиянием AI на детей. Необходимо разработать комплексные меры для защиты детей от потенциальных рисков, связанных с использованием AI-чатботов, и обеспечить их безопасное и ответственное использование.

MSReview Источник:
www.neowin.net
  • 0




  • Комментарии
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.