Публичные личности говорят, что гонка ИИ за сверхинтеллектом вызывает ряд опасений. Среди них - экономическая невостребованность людей, утрата свободы и вымирание человечества.
Более 850 общественных деятелей, включая лидеров в области искусственного интеллекта (ИИ) и технологий, призвали замедлить гонку за созданием формы ИИ, превосходящей человеческий интеллект, — так называемого «суперинтеллекта».
Ведущие учёные в области компьютерных наук — такие как лауреат Нобелевской премии Джеффри Хинтон и Йошуа Бенджио, которых широко называют «крёстными отцами» ИИ, — подписали письмо; его также поддержали сооснователь Apple Стив Возняк и основатель Virgin Group Ричард Брэнсон.
Под суперинтеллектом обычно понимают ИИ, превосходящий человеческие когнитивные способности; некоторые эксперты опасаются, что это может привести к утрате людьми контроля над такими системами. По прогнозу, сделанному ещё в 1950-е годы выдающимся специалистом по информатике Аланом Тьюрингом, исход «по умолчанию» — это захват контроля машинами.
Мировые лидеры заявляют, что победа в гонке ИИ имеет ключевое значение для национальной безопасности, а также для прогресса в здравоохранении, бизнесе и технологиях.
Тем временем технологические компании, такие как Meta, используют «суперинтеллект» как модный термин, подогревая интерес к своим новейшим моделям ИИ. В этом году Meta назвала своё подразделение по крупным языковым моделям (LLM) Meta Superintelligence Labs.
В письме говорится, что гонка ИИ к суперинтеллекту «вызвала опасения — от экономического вытеснения людей и их обесправливания, потери свободы, гражданских прав, достоинства и контроля до рисков для национальной безопасности и даже потенциального исчезновения человечества».
Авторы призывают к «запрету на разработку суперинтеллекта, который не должен быть снят до тех пор, пока не сложится широкий научный консенсус о том, что это будет делаться безопасно и подконтрольно, и пока не будет достигнута широкая общественная поддержка».
Лидеры ИИ, в том числе генеральный директор OpenAI Сэм Альтман, ранее заявляли, что разработка сверхчеловеческого машинного интеллекта (SMI) «вероятно, является наибольшей угрозой для дальнейшего существования человечества».
Гендиректор Microsoft AI Мустафа Сулейман заявил: «Пока мы не сможем однозначно доказать, что это безопасно, нам не следует это изобретать».
Однако Альтмана и Сулеймана среди подписантов нет.
Альтман также продвигает идею общего искусственного интеллекта (AGI), условно понимаемого как тип ИИ, сопоставимый с человеческими когнитивными способностями или превосходящий их, который рассматривают как ступень перед суперинтеллектом.
Однако сам Алтман определяет AGI как гипотетическую форму машинного интеллекта, способную решать любые человеческие задачи методами, не ограниченными его обучением. По его словам, такой ИИ может «возвысить человечество» и не подразумевает захват власти машинами.
Помимо представителей техсферы, среди подписантов — учёные, медийные персоны, такие как Стивен Фрай и Стив Бэннон, религиозные лидеры и бывшие политики.