Новое исследование Эдинбургского университета показало, что злоумышленникам пока редко удаётся эффективно использовать ИИ ни в своих схемах, ни при создании более совершенных инструментов.
Киберпреступникам пока трудно внедрять искусственный интеллект (ИИ) в свою деятельность, говорится в новом анализе.
Новый препринт исследования (источник на английском языке) Эдинбургского университета проанализировал более 100 миллионов сообщений на форумах киберпреступников в базе данных CrimeBB, которая собирает данные с подпольных площадок.
Данные изучали вручную и с помощью большой языковой модели (LLM).
Хотя киберпреступники и проявляют интерес к тому, чтобы научиться пользоваться инструментами ИИ, технология пока не изменила заметно их «рабочие» методы, говорится в работе.
«Во многих обзорах и обсуждениях [инструменты ИИ] описываются как не особенно полезные», отмечают авторы.
Исследователи не нашли «существенных доказательств» того, что хакерам удаётся с помощью ИИ повысить эффективность своей деятельности, будь то в качестве учебного пособия или для разработки более мощных инструментов взлома.
По сути, ассистенты программирования на базе ИИ наиболее полезны тем, кто уже хорошо владеет кодом, поэтому модели, помогающие писать программы, не дают хакерам заметного «бонуса» при попытках взломать устройства или найти уязвимости в системе защиты, отмечают авторы.
«Сначала нужно самому освоить основы программирования, и только потом можно подключать ИИ и ДЕЙСТВИТЕЛЬНО извлекать из него пользу», говорится в одном из сообщений, процитированных в исследовании.
Наибольшее влияние ИИ пока оказывает на теневую онлайн‑активность в легко автоматизируемых сферах, таких как создание ботов в соцсетях, некоторые романтические мошеннические схемы и мошенничество с поисковой оптимизацией (SEO), когда создаются фальшивые сайты, которые выводят наверх в результатах поиска, чтобы зарабатывать на рекламе.
Судя по отзывам, даже самые опытные хакеры используют чат‑ботов, чтобы получать ответы на вопросы по коду или генерировать «шпаргалки», облегчающие программирование.
На деле хакеры пользуются в основном «массовыми и легальными продуктами» ИИ, такими как Claude от Anthropic или Codex от OpenAI, а не специализированными моделями для киберпреступности вроде WormGPT, которую разработали для генерации вредоносного кода или фишинговых писем.
Многие сообщения, проанализированные в исследовании, посвящены поиску способов обойти механизмы безопасности в этих массовых моделях, однако, судя по всему, добиться от ИИ игнорирования таких ограничений им удаётся с большим трудом.
В результате киберпреступникам приходится переключаться на более старые, менее качественные модели ИИ с открытым исходным кодом, которые проще взломать. Но они, как правило, менее полезны и «требуют значительных ресурсов», отмечают исследователи.
Их выводы говорят о том, что ограничители, которые внедряют компании, занимающиеся разработкой ИИ, по крайней мере пока работают.