«Он [президент Трамп] пытается заставить индустрию ИИ строиться, как и всех остальных», — говорит Euronews компьютерный учёный Бен Герцель.
Запрет правительства США в отношении компании Anthropic выглядит карательной мерой после публичного конфликта компании с Пентагоном из-за ее отказа разрешить неограниченное военное использование ее модели искусственного интеллекта Claude.
Во вторник Anthropic представила свои аргументы в федеральном суде Сан-Франциско, добиваясь судебного запрета на решение правительства США занести ее в черный список как угрозу национальной безопасности.
Федеральный окружной судья Рита Ф. Лин в начале слушаний заявила, что «это похоже на попытку парализовать Anthropic», добавив, что ее беспокоит возможность того, что власти наказывают Anthropic за открытую критику позиций правительства, как сообщили СМИ США (источник на английском языке).
Президент США Дональд Трамп и министр обороны Пит Хегсет в феврале публично объявили, что разрывают отношения с компанией, занимающейся искусственным интеллектом (ИИ), после ее отказа разрешить неограниченное военное использование модели Claude. К спорным ограничениям относятся использование смертоносного автономного оружия без участия человека и массовая слежка за американцами.
В ответ правительство США назвало Anthropic «риском для цепочки поставок, затрагивающим национальную безопасность», и приказало федеральным агентствам прекратить использование Claude.
9 марта Anthropic подала против правительства два иска, оспаривая свое отнесение к рискам для цепочки поставок. Один из них требует пересмотра этого статуса, второй утверждает, что администрация Трампа нарушила гарантированное Первой поправкой право компании на свободу слова.
Лин заявила в зале суда, что Пентагон вправе сам решать, какие продукты ИИ использовать, однако поставила под вопрос, не нарушило ли правительство закон, запретив госведомствам использовать решения Anthropic, а также когда Хегсет объявил, что желающие сотрудничать с Пентагоном должны разорвать отношения с компанией, передает NPR.
Представитель правительства в суде утверждал, что действия Пентагона не носили карательного характера и были основаны на том, как может использоваться модель ИИ Anthropic, а не на решении компании публично заявить о разногласиях.
NPR также сообщает, что Anthropic может представлять риск в будущем, поскольку компания способна обновить свою модель Claude таким образом, что это поставит под угрозу национальную безопасность.
Редакция Euronews Next обратилась в Anthropic за комментарием, однако на момент публикации ответа не получила.
Что означало бы это решение для компаний в сфере ИИ
Статус риска для цепочки поставок, как правило, применяется только к иностранным компаниям.
«Неправильно применять такую квалификацию в данном случае», – считает Бен Герцель, специалист по информатике и генеральный директор SingularityNet и The Artificial Superintelligence Alliance.
«Это значит, что исполнительная власть может как угодно переосмысливать слова и законы», – сказал он в комментарии Euronews Next.
По словам Герцеля, если будет применена наиболее жесткая трактовка статуса риска для цепочки поставок и она будет означать, что Anthropic не сможет продавать свое программное обеспечение ни одной компании, которая так или иначе работает с государством, это будет «крайне плохо для компании».
Он добавил, что Anthropic финансово выстоит, поскольку вне госзаказов остается гораздо больший рынок, и «она получит серьезную поддержку той части страны, которая не является большим поклонником Дональда Трампа».
Однако, по его словам, немедленным эффектом сохранения за Anthropic такого статуса станет то, что это «отобьет у других компаний охоту противостоять администрации Трампа».
«Он [президент Трамп] пытается приучить индустрию ИИ строиться в ряд, как и всех остальных», – заявил Герцель.
Судья Лин заявила, что рассчитывает в ближайшие дни вынести решение о том, приостанавливать ли временно правительственный запрет на время дальнейшего рассмотрения дела.