Ученые призывают не наделять оружие искусственным интеллектом

Ученые призывают не наделять оружие искусственным интеллектом
Авторское право 
By Euronews
Поделиться статьейКомментарии
Поделиться статьейClose Button

Десятки выдающихся ученых опубликовали открытое письмо, предупреждающее общественность об опасности автономного оружия, создание которого стало

РЕКЛАМА

Десятки выдающихся ученых опубликовали открытое письмо, предупреждающее общественность об опасности автономного оружия, создание которого стало возможным в связи с прогрессом в области робототехники и искусственного интеллекта.

Вы можете прочитать письмо здесь

Они призывают запретить разработку “роботов-убийц”, иначе, как указывается в обращении, неизбежна новая гонка вооружений, которая не пойдет на пользу человечеству.

Письмо подписали сотни других ученых, исследователей и экспертов, среди которых – Стивен Хокинг, Ноам Хомский, Илон Маск и другие. Они предупреждают, что “роботам-убийцам” даже не потребуется разрешение человека, чтобы принять решение о том, на кого напасть и кого убить: “Технология искусственного интеллекта достигла той точки, когда вопрос появления автономного оружия с искусственным интеллектом становится делом ближайших лет – даже не десятилетий”. “Ставки высоки, – говорится в обращении. – Так как автономные виды вооружений представляют собой третью революцию в военной области после изобретения пороха и ядерного оружия”.

В письме также перечисляется короткий список преимуществ оружия, наделенного искусственным разумом, в том числе – возможность сократить число человеческих жертв на поле боя, и длинный список недостатков, среди которых – относительно дешевое массовое производство, снижение порога вступления в войну, легая возможность оказаться на “черном” рынке и, как следствие, – в руках диктаторов, террористов, военных фанатиков и так далее.

“Если не принять никаких мер, автономное оружие завтра станет столь же распространенным, как автомат Калашникова сегодня”, – утверждают авторы обращения.

При этом ученые не призывают полностью запретить разработки технологий искусственного разума для оборонной промышленности: “Искусственному интеллекту можно найти множество применений, которые позволят сделать поле боя более безопасным для человека, в первую очередь – для гражданского населения, не создавая при этом новых инструментов для убийства людей”.

Тем не менее, не все ученые-робототехники с этим согласны. Австралиец Родни Брукс настаивает, что искусственный инструмент – это инструмент, а не угроза.

Статья в его блоге здесь

Брукс, основавший стартап RethinkRobotics, пишет: “Я думаю, будет ошибкой опасаться злобности искусственного интеллекта в ближайшие лет сто. Думаю, что эти беспокойства связаны с фундаментальной ошибкой неразличения разницы между весьма реальными последними достижениями в конкретном аспекте искусственного интеллекта и масштабностью и сложностью задачи строительства разумного волевого интеллекта”.

Австралийский ученый называет эти опасения простым страхом перед слухами и огромной тратой времени. “Давайте улучшать искусственный интеллект и делать его умнее”, – призывает Брукс.

Поделиться статьейКомментарии

Также по теме

Полгода войны в Газе. В Каире начинаются новые переговоры о перемирии

Норвегия увеличивает расходы на оборону

ЦАХАЛ снова нанес удар по Рафаху. Сообщается о жертвах