Европейское соглашение о запрете систем искусственного интеллекта, генерирующих сексуальные подделки, стало важной вехой в деле защиты прав цифровых пользователей. Что представляет собой этот искуственно созданный контент и какие риски, по мнению Европола, он представляет?
Испания приветствует общеевропейское соглашение о запрете систем искусственного интеллекта, генерирующих сексуальные дипфейки без согласия. Принятая Европарламентом, Европейским Советом и Еврокомиссией поправка наложит вето на вывод на рынок, ввод в эксплуатацию и использование инструментов**, способных создавать или манипулировать изображениями, видео/аудио**, показывающими людей в интимных ситуациях без их явного согласия.
Инициатива - часть реформы европейского Закона об искусственном интеллекте; она - ответ на споры, вызванные распространением поддельной наготы женщин и несовершеннолетних, которые созданы с помощью генерирующего контент ИИ. Кроме того, под запрет попадет генерируемый контент, воспроизводящий или имитирующий детскую порнографию.
Всего неделю назад пемьер-министр Италии Джорджа Мелони привлекла внимание к deepfake, опубликовав в качестве примера поддельную фотографию, созданную с помощью искусственного интеллекта. На неё её лицо было наложено на тело женщины в нижнем белье.
В Испании министр цифровых преобразований и государственного управления Оскар Лопес приветствовал соглашение, напомнив, что правительство "продолжает развёртывать собственную европейскую модель искусственного интеллекта, которую характеризует высокая надёжность", говорится в пресс-релизе. Мера дополняет Закон о защите несовершеннолетних в цифровой среде, который предусматривает ужесточение наказания за создание и распространение дипфейков сексуального содержания.
Пакт также предусматривает ведение упрощённого реестра определённых систем искусственного интеллекта, не представляющих прямой опасности; усиливает обязательство по цифровой грамотности в области искусственного интеллекта для поставщиков и лиц, ответственных за их развертывание при поддержке государственных структер.
Что такое deepfake?
Дипфейк (deepfake) - это тип синтетического контента**, генерируемого искусственным интеллектом и** способным создавать чрезвычайно реалистичные аудио, изображения или видео, в которых люди говорят или делают то, чего никогда не было.
В основе технологии лежат нейронные сети глубокого обучения, прежде всего генеративные адверсарные сети (GAN). Они обучают модели на основе большого количества визуальных и слуховых данных, доступных в Интернете. В сочетании с большими массивами данных эти модели могут создавать симуляции, практически не отличимые от реальности.
По данным Европола, дипфейки способны показывать людей, делающих или говорящих то, чего те никогда не делали, или создать личности, которых никогда не существовало. Всё это представляет собой серьезную проблему для достоверности СМИ и общественного доверия.
Кто в первую очередь подвержен влиянию дипфейков?
Согласно докладу Европола, дипфейки - многогранная угроза, но некоторые категории жертв особенно уязвимы.
Сексуальные дипфейки, сгенерированные без согласия, могут разрушить репутацию, повлиять на психическое здоровье и нанести непоправимый ущерб личной и профессиональной жизни жертв. Кроме того, возможность создания порнографии без согласия повышает риск для женщин и несовершеннолетних.
Манипуляции с изображениями политических или деловых лидеров, с целью распространения ложных сообщений или провоцирования кризиса доверия, могут повлиять на общественное мнение и подорвать авторитет институтов.
В полицейских расследованиях и судебных процессах дипфейки могут превратить аудиовизуальные записи в манипулируемые доказательства, усложняя юридическую работу и отправление правосудия.
Почему они представляют угрозу?
- Распространение дезинформации
Дипфейки могут быть включены в кампании по дезинформации, подрывая доверие к СМИ, государственным институтам и демократическим процессам. Легкость, с которой они распространяются, усиливает их социальное воздействие.
- Достоверность доказательств под вопросом
Технологии ставят под сомнение достоверность аудиовизуальных доказательств в ходе расследований или судебных разбирательств, поскольку созданный контент может казаться подлинным, даже если он полностью сфабрикован.
- Эскалация цифровых преступлений
Достижения в области ИИ облегчают злоумышленникам с ограниченными ресурсами создание высококачественных подделок, что расширяет их использование в целях мошенничества, вымогательства, шантажа и распространения порнографии без согласия.
Ответные меры
Обнаружение и борьба с дипфейками требуют не менее совершенных технологий для выявления подделок и создания инструментов профилактики. Кроме того, в докладе Европола, который уже давно предупреждает об опасности этой технологии, подчеркивается необходимость разработки правоохранительными органами и политиками специальных возможностей для борьбы с этим явлением, а также международного сотрудничества для борьбы с производством и распространением вредоносного искуственного контента.
Испания, выступившая в Европе с инициативой запрета сексуальных дипфейков, стремится установить стандарты защиты основных прав перед лицом порождаемых искусственным интеллектом рисков в эпоху, когда эта технология продолжает развиваться и расширять свое применение - как благотворное, так и вредоносное, в цифровой жизни миллионов людей.