EventsСобытияподкасты
Loader
Свяжитесь с нами
РЕКЛАМА

Европол предупреждает: ChatGPT могут использовать преступники

Европол опасается, что преступники могут использовать ChatGPT в мошеннических целях
Европол опасается, что преступники могут использовать ChatGPT в мошеннических целях Авторское право Canva
Авторское право Canva
By Euronews
Опубликовано Последние обновления
Поделиться статьейКомментарии
Поделиться статьейClose Button

Преступники могут использовать технологии искусственного интеллекта, типа ChatGPT, в своих целях, говорится в новом докладе Европола. По мнению европейских правоохранителей, нейросети могут помочь злоумышленникам выдать себя за других людей.

РЕКЛАМА

ChatGPT и подобные инструменты искусственного интеллекта оказываются полезными в самых разных контекстах, и Европол опасается, что они могут быть столь же полезны и для преступников.

В своем недавнем докладе о ChatGPT под названием "Влияние больших языковых моделей на правоохранительную деятельность" полицейская служба Европейского Союза отмечает, что ChatGPT, построенный на технологии больших языковых моделей GPT3.5 от OpenAI, может "значительно облегчить злоумышленникам понимание и последующее совершение различных видов преступлений".

Это связано с тем, что, хотя информация, на которой обучается ChatGPT, уже находится в свободном доступе в интернете, технология способна предоставлять пошаговые инструкции на любые темы, если пользователь задает правильные контекстуальные вопросы.

Вот виды преступлений, в которых, как предупреждает Европол, чат-боты потенциально могут помочь преступникам.

Мошенничество, выдача себя за другое лицо и социальная инженерия

ChatGPT и другие чат-боты, такие как Bard от Google, поразили пользователей способностью как человек писать тексты на любую тему, основываясь на подсказках пользователя. Они могут изучить стиль письма по введенному тексту, а затем создать новые тексты в этом же стиле. Это открывает возможности для использования системы преступниками, которые хотят выдать себя за какого-то человека или организацию в целях фишинга.

Кроме того, ChatGPT способен быстро создать большое количество контента в социальных сетях, к примеру, для продвижения мошеннического предложения об инвестициях.

Один из верных признаков онлайн-мошенничества — орфографические или грамматические ошибки в электронных письмах и сообщениях в соцсетях. Имея под рукой чат-бот, даже преступники со слабым знанием английского языка смогут создавать контент, который не будет иметь таких красных флажков.

Эта технология также может быть использована теми, кто стремится создавать и распространять пропаганду и дезинформацию, поскольку она способна создавать аргументы и повествования с огромной скоростью.

Киберпреступность для начинающих

ChatGPT не только хорошо складывает слова в предложения, но и владеет рядом языков программирования. По мнению Европола, это означает, что он может оказать влияние на киберпреступность.

"С помощью текущей версии ChatGPT уже можно создавать базовые инструменты для различных вредоносных целей", — предупреждает доклад.

Это лишь базовые инструменты для создания фишинговых страниц, но они позволяют преступникам, не имеющим практически никаких знаний в области программирования, создавать то, чего они не могли создать раньше.

Тот факт, что последняя версия нейросети, GPT-4, лучше понимает контекст кода и исправляет ошибки, означает, что это "бесценный ресурс" для преступников с небольшими техническими знаниями.

Европол предупреждает, что по мере совершенствования технологии ИИ она может стать гораздо более продвинутой "и, как следствие, опасной".

"Дипфейки" уже влияют на реальный мир

Случаи использования ChatGPT, о которых предупреждает Европол, — лишь одна из областей применения ИИ, которой могут воспользоваться преступники.

Уже были случаи, когда "дипфейки" использовались для мошенничества и причинения вреда людям. Одна женщина заявила, что ей было всего 18 лет, когда она обнаружила, что в интернете распространяются ее порнографические фотографии — несмотря на то, что она никогда не делала этих снимков и не делилась ими.

Ее лицо было добавлено к изображениям тела другого человека. Пострадавшая сказала Euronews Next, что это "приговор на всю жизнь". В отчете Deeptrace Labs за 2019 год говорится, что 96% поддельного контента в сети — порнографические материалы, сделанные без согласия.

В другом случае искусственный интеллект использовался для имитации голоса человека, чтобы обмануть его родственника.

Европол завершил свой доклад заявлением о том, что правоохранительным органам важно "держать руку на пульсе", предвидеть и предотвращать преступное использование ИИ.

Поделиться статьейКомментарии

Также по теме

Гонка ИИ уже началась: есть ли шанс у Европы?

Эксперт о глобальном технологическом сбое: "Мы становимся всё более уязвимы"

Крупные сбои в работе Microsoft затронули пользователей по всему миру