Искусственный интеллект изменит ведение войны

Военная разведка на войне
Военная разведка на войне Авторское право frame
By Бланка Кастро
Поделиться статьейКомментарии
Поделиться статьейClose Button
Скопировать линк для интеграции видеоCopy to clipboardCopied

Неизученные сценарии применения искусственного интеллекта на войне вызывают серьезную озабоченность международного сообщества.

РЕКЛАМА

Украина запускает Brave 1, амбициозную инициативу по разработке военных технологий с помощью экспертов со всего мира. От систем обороны и кибербезопасности до создания нетрадиционных вооружений - таких, как автоматизированное или автономное оружие, которое благодаря искусственному интеллекту могло бы действовать самостоятельно и навсегда изменить военные действия. Но будущее применение такого оружия вызывает споры. 

Вопрос, вокруг которого ведутся самые жаркие дискуссии, заключается в том, какова будет роль людей.

Цезарь Пинадо, эксперт Центра  по вопросам разведки, безопасности и обороны CISDE (Испания):

"Постоянно та или другая миссия прерываются из-за этических, юридических, технических проблем или просто из-за эволюции самого боя".

С человеком-оператором теоретически всегда существует вероятность того, что человек может проявить сострадание, сочувствие и вынести суждение, а система, которая обучена на данных и предварительно запрограммирована на что-то, этого не сделает.
Анна Надибаидзе
Научный сотрудник Центра военных исследований Университета Южной Дании.

Анна Набидиадзе, научный сотрудник Центра военных исследований Университета Южной Дании:

"Это также связано с потерей моральных приниципов,  потому что с человеком-оператором теоретически всегда существует вероятность того, что человек может проявить сострадание, сочувствие и вынести суждение, а система, которая обучена на данных и предварительно запрограммирована на что-то, этого не сделает".

Операции с роем дронов, собак-роботов или роботов-гуманоидов в не столь отдаленном будущем могли бы участвовать в вооруженных конфликтах и помочь избежать большого числа жертв. Но существует ряд рисков, когда при использовании искусственного интеллекта алгоритмы могут иметь погрешности в своих моделях данных - такие, как ошибки биометрической идентификации лица или отсутствие глубокой оценки их окружения. 

Цезарь Пинадо, эксперт Центра по вопросам разведки, безопасности и обороны CISDE (Испания):

"Но что произойдет, если эта бронемашина на данный момент будет захвачена другими силами?Что, если эта модель танка также используется союзными войсками или если они на мгновение окажется рядом с союзными войсками или против таких  зданий, как, например, храм или школа?"

Анна Набидиадзе, научный сотрудник Центра военных исследований Университета Южной Дании.

"Эта идея о том, что так называемые роботы-убийцы, знаете ли, как бы обретают собственное сознание и появляются на поле боя - это футуристическая вещь, и она как бы из научной фантастики и фильмов. На самом деле эта не та  тема, о которой следует спорить".

Неизученные сценарии использования искусственного интеллекта в военных действиях вызывают серьезную озабоченность международного сообщества. На гражданском уровне эксперты по ИИ призвали к шестимесячной приостановке разработки этих технологий для изучения их возможных последствий. Надибаидзе призывает страны ускорить его регулирование:

"Правительства стран во всем мире очень заинтересованы в инвестировании в такие проекты, явно заинтересованы и продолжают вкладывать большие деньги в эти технологии. Существует настоятельная необходимость решить эту проблему с помощью юридически обязывающих правил, потому что в настоящее время действующие международные правила и международное гуманитарное право недостаточны для решения этих проблем".

Поделиться статьейКомментарии

Также по теме

Лауреат Нобелевской премии по экономике: "Нерегулируемый ИИ усугубит неравенство в мире"

Глава Microsoft не видит в ИИ угрозы человечеству

Crew Dragon с космонавтами на борту вернулся на Землю (видео)