5 вопросов о будущей политике ЕС в сфере искусственного интеллекта

5 вопросов о будущей политике ЕС в сфере искусственного интеллекта
Авторское право Martin Meissner/Copyright 2019 The Associated Press. All rights reserved.
Авторское право Martin Meissner/Copyright 2019 The Associated Press. All rights reserved.
By Надежда Дрямина
Поделиться статьейКомментарии
Поделиться статьейClose Button

Возможности ИИ почти безграничны, потенциал применения - огромен. Но у этих технологий, которые уже сегодня активно применяются в странах ЕС, есть серьёзные риски для общества и человека.

РЕКЛАМА

Список рекомендованных к просмотру фильмов на платформе, которой вы пользуетесь, разблокировка смартфона при помощи Face ID, автокорректирование текста и общение с чат-ботом. Всё это - продукты и технологии искусственного интеллекта. Словосочетание звучит, как нечто из далёкого будущего. Однако ИИ - уже сегодня часть повседневной жизни людей. Его возможности почти безграничны. Но есть и риски.

"Потенциал применения ИИ огромен: в борьбе с загрязнением окружающей среды, в улучшении качества медуслуг и образования. Он расширяет возможности граждан участвовать в жизни общества", - считает вице-президент Еврокомиссии и руководитель программы "Адаптация Европы к цифровой эпохе" Маргрете Вестагер.

Технологии могут быть полезны в любой области, вплоть до - "борьбы с терроризмом и преступностью, повышения кибербезопасности", - настаивала Вестагер в ходе дебатов на заседании Спецкомитета Европарламента по применению искусственного интеллекта.

Именно тут кроются риски. По этой причине Еврокомиссия предложила меры по регулированию этой сферы. Но сначала стоит разобраться, что такое Искусственный Интеллект, и почему он рождает поводы для беспокойства?

Что такое искусственный интеллект, и как он работает?

Искусственный интеллект - это технология, которая позволяет компьютерам воспринимать, анализировать и преобразовывать в алгоритмы действий информацию об окружающей среде. Благодаря чему машина получает способность прогнозировать ситуацию и принимать собственные решения для достижения конкретных целей.

Разрабатываются многочисленные приложения на базе ИИ. Это серьёзный толчок для открытий в области медицины. Например, существует программа, распознающая риск болезни Альцгеймера.

В сельском хозяйстве при помощи ИИ научились отслеживать произростание культур, прогнозировать урожайность, оптимизировать производство, эффективно управлять земельными ресурсами.

Есть даже приложения для контроля за работой сотрудников на удалёнке.

В то же время, искусственный интеллект собирает огромные объёмы данных, воспроизводит в своих алгоритмах предубеждения и предрассудки, существующие в обществе. Что и представляет собой опасность. Например, это может поставить под угрозу неприкосновенность частной жизни, соблюдение базовых прав, усилить дискриминацию меньшинств.

Какова официальная позиция Евросоюза?

"Чем выше риски, которые каждый конкретный пример использования ИИ может вызвать для нашей жизни, тем строже правила", - такими словами Вестагер в апреле прошлого года обозначила главный тезис плана Еврокомисси по применению искусственного интеллекта. В тексте документа они подразделяются на четыре категории в зависимости от степени риска, который могут собой представлять.

Первая - категория минимального риска. К ней относятся технологии, доступ к которым открыт, а пользование - бесплатно. Например, спам-фильтры.

Вторая категория - с ограниченным риском. В этом случае граждане должны быть проинформированы о том, что взаимодействуют с машиной, которая принимает решения самостоятельно (чат-боты).

К категории высокого риска относят систему распознавания лиц, разработки резюме; программы, связанные с юридическими процедурами. Причина: в случае сбоя или утечки информации пользователям может быть нанесён серьёзный ущерб.

Так, Комиссия обязывает разработчиков "тщательно оценивать продукт на предмет риска перед выпуском на рынок и на всех этапах его жизненного цикла".

Применение технологий последней категории считается недопустимым. Тут ЕК провела черту, исключив все те системы ИИ, которые представляют "явную угрозу безопасности, средствам к существованию и правам людей". Примерами могут служить использование "социального скоринга" представителями власти; техники, основанные на методе внушения, манипуляции подсознанием.

Какой будет политика ЕС в сфере искусственного интеллекта?

РЕКЛАМА

По мнению Сары Чандер, старшего советника по политике в European Digital Rights (EDRi), инициатива Еврокомиссии "рискует оберуться появлением агрессивной системы контроля и дискриминации, которая вместо этого должна быть под запретом". В качестве примера она приводит развёртывание армии дронов на пограничных территориях.

Между тем, недавно Европарламент проголосовал против применения технологии распознавания лиц для массового наблюдения.

"Мы категорически против предиктивных полицейских практик, базирующихся на ИИ, а также против любой обработки биометрических данных, которые в итоге приводят к массовой слежке", - сказал евродепутат Петар Витанов.

Станет ли Face ID реальностью в Европейском Союзе?

Распознавание лиц в целях безопасности - одна из актуальных проблем регулирования сферы высоких технологий. Недавнее исследование, проведённое "зелёными" из числа европарламентариев, показывает, что из 27 государств-членов блока 11 активно внедряют искусственный интеллект. В их числе - Германия, Франция, Венгрия, Нидерланды или Финляндия.

РЕКЛАМА

Еврокомиссия выступает против. В Европарламенте же мнения разделились. Одни депутаты требуют полного запрета, другие - предлагают иной вариант.

"Мы призываем ввести мораторий на развертывание систем распознавания лиц для правоохранительных органов, поскольку эта технология неэффективна и часто приводит к дискриминирующим действиям", - утверждает Витанов.

Евродепутат Аксель Восс парирует: "Даже для распознавания лиц можно выработать нормы безопасности, чтобы предотвратить разного рода злоупотребления".

Так или иначе, ИИ не останется вне закона. Чандер предупреждает, что прецеденты могут возникнуть, когда судебные споры будут решаться не на европейском, а на национальном уровне.

Кроме того, как она отмечает, будут сложности в унифицировании норм даже на уровне ведомств. Например, министерства, курирующие вопросы инноваций, априори за урегулирование на основе положений о правах человека. А, МВД, заведующее делами полиции - не поддержат запрет на применение технологий для выявления потенциальных преступников.

РЕКЛАМА

Можно ли избежать воспроизводства стереотипов и предрассудков?

В своей законодательной инициативе Европейская комиссия обозначила цель "не допустить того, чтобы системы ИИ воспроизводили существующие предрассудки в своих алгоритмах".

Но Чандер настаивает на том, что этого не избежать, "учитывая принцип работы технологий искусственного интеллекта", а значит он углубит дискриминацию в обществе.

Наша собеседница также подчеркнула, что ЕК упустила из виду одну ключевую проблему: отсутствие у граждан возможности пожаловаться в определённую инстанцию. Она задаётся вопросом: как же тогда граждане могут обратиться к властям и убедиться, что их права соблюдаются?

Как не переборщить с законодательными ограничениями?

РЕКЛАМА

При стремлении установить мировые стандарты велик риск чрезмерного регулирования, которое лишает возможности технологии развиваться. Эта проблема сегодня стоит перед Европейским Союзом.

"ИИ не будет разрабатываться и использоваться так широко, как мог бы, если мы не сумеем довести до минимума связанные с ним риски", - сказала на это Верстагер.

В то же время, ЕС должен найти баланс между госконтролем над технологиями в Китае и подходом США, в основе которого лежит принцип добровольного сотрудничества с крупными IT-компаниями.

Поделиться статьейКомментарии

Также по теме

Кто, если не она: есть ли в ЕС кандидаты на смену Урсуле фон дер Ляйен?

Кадровый скандал в Еврокомиссии достиг кульминации

Атаки на Запорожскую АЭС: Европа готова к любому исходу