Искусственный интеллект нас обманывает: насколько хорошо мы отличаем реальность от вымысла?

Обложка

Новое исследование Microsoft AI for Good, основанное на эксперименте с участием более 12 500 человек по всему миру и 287 000 оценок изображений, показало, что люди в среднем лишь в 62% случаев могут отличить изображения, созданные искусственным интеллектом (ИИ), от настоящих фотографий. Это значит, что мы лишь немного лучше справляемся с этой задачей, чем если бы просто угадывали.

Участникам было легче всего распознавать поддельные портреты людей, но возникали значительные трудности с пейзажами и городскими видами. В этих случаях показатель успеха падал до 59-61%. Такие результаты подчеркивают, как сложно отличить изображения, сгенерированные ИИ, особенно если они не содержат явных артефактов или стилистических особенностей.

В рамках исследования участники играли в викторину "Реально или нет", где им показывали изображения, созданные ИИ, которые они могли бы встретить в интернете. Важно отметить, что для исследования не отбирались только самые сложные для распознавания изображения. Авторы исследования также отмечают, что ИИ постоянно совершенствуется, и будущие модели смогут создавать еще более убедительные подделки.

Основываясь на результатах исследования, Microsoft призывает к разработке инструментов прозрачности, таких как водяные знаки, и надежных средств обнаружения ИИ для борьбы с дезинформацией, создаваемой с помощью ИИ. Чтобы повысить осведомленность об этих опасностях, компания уже запустила специальную кампанию.

У исследователей был доступ к собственному инструменту обнаружения ИИ, который показал результат выше 95% для реальных и сгенерированных изображений во всех категориях. Это говорит о том, что машинная помощь гораздо надежнее, чем человеческое суждение, хотя и не является идеальной.

Стоит помнить, что даже видимый водяной знак на изображении легко обрезать или сделать незаметным с помощью простых инструментов.

Почему нас так легко обмануть?

Исследователи отмечают, что людям, возможно, легче распознавать поддельные лица из-за нашей способности хорошо их идентифицировать и замечать аномалии. Интересно, что старые генеративные сети (GAN) оказались довольно эффективными в обмане пользователей, поскольку они создают изображения, похожие на любительские фотографии, а не на студийные снимки, характерные для Midjourney и DALL-E 3.

Особую опасность представляет дорисовка – техника, при которой небольшой элемент реального изображения заменяется сгенерированным ИИ. Microsoft отмечает, что такие подделки чрезвычайно трудно выявить, и они представляют серьезную угрозу для кампаний по дезинформации.

Это исследование подчеркивает, насколько мы восприимчивы к обману со стороны искусственного интеллекта, и напоминает о необходимости разработки технологий, предотвращающих злонамеренное распространение поддельных изображений.

Источник: ArXiv | Изображение через Depositphotos.com

Мнение редакции MSReview:

Результаты исследования Microsoft вызывают серьезную тревогу. Становится очевидным, что традиционные методы выявления дипфейков и других сгенерированных ИИ материалов теряют свою эффективность. Необходимы новые подходы к борьбе с дезинформацией, основанные на технологиях машинного обучения и криптографии. Кроме того, важно повышать осведомленность общественности о рисках, связанных с искусственно созданными медиафайлами.

MSReview Источник:
www.neowin.net
  • 0




  • Комментарии
Информация
Посетители, находящиеся в группе Гости, не могут оставлять комментарии к данной публикации.