На прошлой неделе Пентагон признал Anthropic риском для цепочки поставок, из-за чего компаниям придется прекратить использование Claude в Минобороны США.
Компания Anthropic подала в суд на Министерство обороны США в понедельник (источник на английском языке)после того как ведомство на прошлой неделе назвало ее риском для цепочек поставок.
Исковое заявление стало результатом конфликта между Anthropic и Пентагоном по поводу того, должно ли военное ведомство получить неограниченный доступ к системам ИИ компании.
На прошлой неделе Пентагон ввел санкции против разработчика Claude, признав компанию риском для цепочек поставок; это означает, что компании должны прекратить использование Claude в проектах, напрямую связанных с ведомством.
Президент Дональд Трамп также заявил, что распорядится федеральным ведомствам отказаться от использования Claude, хотя и предоставил Пентагону шесть месяцев на постепенный отказ от продукта, глубоко интегрированного в засекреченные военные системы, в том числе применявшиеся в войне с Ираном.
«Мы не считаем это решение юридически обоснованным и не видим иного выхода, кроме как оспорить его в суде», — написал гендиректор Anthropic Дарио Амодеи в публикации в блоге в четверг (источник на английском языке).
В иске содержится просьба к суду отменить статус «риска для цепочек поставок» и запретить федеральным ведомствам применять его.
«Конституция не позволяет правительству использовать свою колоссальную власть, чтобы наказывать компанию за выражение позиции, защищенной законом», — говорится в иске Anthropic. «Anthropic обращается к суду как к последнему средству, чтобы отстоять свои права и остановить незаконную кампанию возмездия со стороны исполнительной власти».
Как сообщило агентство AP, Министерство обороны отказалось от комментариев в понедельник, сославшись на политику не высказываться по вопросам, находящимся на рассмотрении в суде.
В Anthropic заявили, что стремились запретить использование своей технологии в двух ключевых сферах: для массовой слежки за американцами и для полностью автономных вооружений.
Министр обороны Пит Хегсет и другие чиновники публично настаивали, что компания должна согласиться на «любые законные способы» использования Claude и грозили наказанием в случае отказа Anthropic выполнить это требование.
Anthropic разрабатывает чат-бота Claude и остается единственной среди сопоставимых компаний, которая не поставляет свои технологии в новую внутреннюю сеть американских военных.
По словам Anthropic, в июле прошлого года компания получила от Министерства обороны США контракт на 200 млн долларов (167 млн евро) на «создание прототипов передовых продуктов ИИ, повышающих национальную безопасность США».
В 2024 году компания заключила(источник на английском языке)target="_blank" rel="noopener noreferrer nofollow" href="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/" tooltip="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/"> партнерство с Palantir Technologies, чтобы интегрировать Claude в программное обеспечение американской разведки.