Самостоятельный поиск информации, внимательный анализ деталей изображения и доверие профессиональным фактчекерам помогают понять, создано ли оно ИИ.
В 10-й Международный день фактчекинга самое время напомнить, как распознавать дезинформацию, созданную с помощью ИИ.
Такой контент сегодня появляется повсюду — от сообщений о войне между США и Ираном до материалов накануне выборов в Венгрии и даже в личных лентах пользователей.
В недавнем исследовании, опубликованном в журнале PNAS Nexus, 27 тысяч жителей 27 стран ЕС попросили оценить восемь заголовков новостей, созданных людьми и ИИ, по тому, насколько правдоподобными они кажутся.
Почти половина заголовков, созданных ИИ, была признана «в основном» или «полностью правдивой» — против 44 % заголовков, написанных людьми. Респонденты также чаще были готовы делиться новостями, созданными ИИ, и доверять им, чем текстам, написанным людьми, если знали, что речь идет о реальном событии.
Однако участники опроса отмечали, что с меньшей вероятностью распространят новость, созданную как человеком, так и ИИ, если им известно, что она ложная.
По словам исследователей, результаты показывают, что люди не могут отличить контент, созданный человеком, от материалов, созданных ИИ.
Вот несколько советов, как это сделать.
Обращайте внимание на визуальные признаки
Первые видеоролики с ИИ, появившиеся в сети, выдавали себя по нескольким очевидным признакам: у людей было слишком много пальцев, голоса не совпадали с артикуляцией, а объекты на изображении искажались.
Сейчас таких явных маркеров меньше, поскольку технологии развиваются, но все же стоит их искать.
Пользователям стоит присматриваться к несоответствиям — например, к машине, которая в один момент есть в кадре, а в следующий исчезает.
Некоторые изображения, созданные ИИ, могут выглядеть чересчур «отполированными» или иметь неестественный блеск, отмечает Глобальная сеть журналистских расследований (GIJN).
GIJN советует, рассматривая потенциально созданное ИИ изображение, задавать себе вопрос, не выглядит ли человек на нем слишком безупречно, особенно с учетом контекста (например, не выглядит ли он как с обложки журнала, находясь при этом в зоне конфликта). Также организация рекомендует обратить внимание на кожу — нет ли на ней отсутствующей естественной текстуры.
Проводите собственную проверку
Если изображение или видео кажется подозрительным, есть способы проверить его подлинность.
Один из них — обратный поиск по изображению: пользователь делает скриншот видео, загружает его в строку поиска Google и нажимает на значок камеры с подписью «поиск по картинке».
После загрузки изображения Google покажет визуально схожие результаты, и можно быстро определить, когда эта фотография появилась в сети впервые.
То же самое можно сделать и в других поисковиках или с помощью специализированных сервисов, таких как TinEye.
Пользователи также могут воспользоваться техническими инструментами, чтобы отследить водяные знаки или метаданные контента и понять, заслуживает ли информация доверия, согласно данным (источник на английском языке) Европейской комиссии.
Например, изображения, созданные с помощью Gemini AI от Google, содержат невидимый цифровой водяной знак SynthID, который приложение умеет распознавать.
Прислушивайтесь к экспертам
Пользователи могут проверить, не опубликовали ли СМИ, официальные лица или специалисты по дезинформации в соцсетях опровержение изображения или видео, которое распространяется онлайн.
В Европе работают фактчекинговые организации, такие как Европейская сеть стандартов фактчекинга (EFCSN), Европейская обсерватория цифровых медиа (EDMO) и проект EUvsDisinfo, которым занимается Европейская служба внешних связей (ЕСВС). Они публикуют обзоры тенденций, исследования и опровержения различных форм дезинформации, созданной с помощью ИИ.
У таких источников могут быть более продвинутые методы выявления контента, созданного ИИ, или доступ к данным об изображении, недоступным широкой публике.
Пользователи также могут проверить, не входит ли распространяемая ими информация в Database of Known Fakes — базу данных (источник на английском языке) проверок, проведенных журналистами, исследователями и профессиональными фактчекерами.
Используйте технологии
Существуют инструменты для обнаружения материалов, созданных ИИ, однако их точность до сих пор вызывает споры.
Среди таких сервисов — Winston AI, определяющий изображения, созданные ИИ; TruthScan, который дает предварительную оценку того, является ли картинка продуктом ИИ; и Originality AI, помогающий выявить тексты, сгенерированные ИИ.
Некоторые сервисы для создания контента на основе ИИ добавляют к материалам видимые водяные знаки.
Однако их обычно легко удалить или обрезать, поэтому отсутствие такого водяного знака не является доказательством подлинности изображения.
Не торопитесь
Остановитесь, выдохните и не делитесь тем, что может оказаться ложью.
Злоумышленники часто рассчитывают на то, что люди реагируют на контент, поддаваясь эмоциям и уже сформированным взглядам.
Комментарии под публикацией могут подсказать, действительно ли изображение, которое вы видите, настоящее: возможно, другие пользователи уже заметили признаки того, что его создал ИИ.
Не всегда возможно достоверно определить, создано ли изображение ИИ, поэтому важно сохранять критическое отношение и допускать, что картинка может быть ненастоящей.