EventsСобытияподкасты
Loader
Find Us
РЕКЛАМА

Еврокомиссия определила степени опасности искусственного разума

Еврокомиссия определила степени опасности искусственного разума
Авторское право MAURO PIMENTEL/AFP
Авторское право MAURO PIMENTEL/AFP
By Aida Sanchez Alonso
Опубликовано Последние обновления
Поделиться статьейКомментарии
Поделиться статьейClose Button
Скопировать линк для интеграции видеоCopy to clipboardCopied

Искусственный интеллект не должен способствовать нарушению прав человека, считает Еврокомиссия. Она выдвинула законодательные предложения о развитии и регулировании ИИ.

РЕКЛАМА

Сочетать научно-технический прогресс с защитой прав человека. Такой целью преследует Европейская комиссия, представившая свой первый законопроект о развитии и регулировании искусственного интеллекта. ИИ нельзя будет использовать для биометрической идентификации, то есть распознавания людей. 

Брюссель хочет, чтобы машины с электронным мозгами заменяли человека на транспорте и производстве. Но им нельзя доверять управление обществом и определение судьбы отдельной личности.

Вице-председатель Еврокомиссии признала, что Искусственному интеллекту ещё предстоит завоевать к себе доверие граждан:

«Предлагаемая нами правовая база не относится к технологию ИИ как к таковой, - сказала Маргрете Вестагер. - Зато мы смотрим на то, для чего и как используется Искусственный интеллект. Мы применяем здесь пропорциональный подход, основанный на одной простой логике: чем выше риск, который конкретное использование ИИ может представлять для нашей жизни, тем строже правила ».

Еврокомиссия хочет установить 4 категории риска для технологий Искусственного интеллекта:

Минимальный: это большинство вариантов применения, не наносящего ущерба. Например, спам-фильтры.

Ограниченный риск представляют, в частности, чат-боты. Переписываясь с ними, граждане должны понимать, что общаются с программами, а не с живыми людьми. .

Условия высокого риска требуют надзора за происходящим со стороны ответственного лица. Нельзя оставлять машине вычисление кредитного рейтинга или кадровые решения - во избежание дискриминации.

Будут запрещены системы, создающие неприемлемый риск, такие как социологический анализ для формирования у правительства отношения к различным группам общества.

Но биометрическая идентификации могут быть разрешена, когда это необходимо для поиска пропавшего ребенка или предотвращения конкретной и неминуемой террористической угрозы.

"Распознавание лица может быть безвредным и полезным, например, чтобы разблокировать телефон, - сказал программист Тома Буэ. - Я это делаю раз сто в день, и это сопряжено с гораздо меньшим риском, чем при использовании в общественных местах для идентификации людей. Так что всегда нужно учитывать контекст и задачи для использования Искусственного Интеллекта"

Пройдут годы, прежде чем это законодательное предложение Брюсселя вступит в силу. Но Евросоюз надеется стать мировым лидером в управлении ИИ, каком он стал в защите личных данных.

Поделиться статьейКомментарии

Также по теме

Франция: бизнес обеспокоен экономическими предложениями в преддверии выборов

Эксклюзив: VVD останется в группе Renew Europe, несмотря на стремление к коалиции с ультраправыми

Либералы и консерваторы претендуют на третье место в Европарламенте после центристов справа и слева