Newsletter Рассылка новостей Events События подкасты Видео Africanews
Loader
Свяжитесь с нами
Реклама

Anthropic подала в суд на Пентагон из‑за статуса риска для цепочек поставок

Страницы сайта Anthropic и логотипы компании отображаются на экране компьютера в Нью-Йорке в четверг, 26 февраля 2026 года.
Страницы сайта Anthropic и логотипы компании отображаются на экране компьютера в Нью-Йорке в четверг, 26 февраля 2026 года. Авторское право  AP Photo/Patrick Sison
Авторское право AP Photo/Patrick Sison
By Pascale Davies и AP
Опубликовано
Поделиться Комментарии
Поделиться Close Button

На прошлой неделе Пентагон признал Anthropic риском для цепочки поставок, из-за чего компаниям придется прекратить использование Claude в Минобороны США.

Компания Anthropic подала в суд на Министерство обороны США в понедельник (источник на английском языке)после того как ведомство на прошлой неделе назвало ее риском для цепочек поставок.

РЕКЛАМА
РЕКЛАМА

Исковое заявление стало результатом конфликта между Anthropic и Пентагоном по поводу того, должно ли военное ведомство получить неограниченный доступ к системам ИИ компании.

На прошлой неделе Пентагон ввел санкции против разработчика Claude, признав компанию риском для цепочек поставок; это означает, что компании должны прекратить использование Claude в проектах, напрямую связанных с ведомством.

Президент Дональд Трамп также заявил, что распорядится федеральным ведомствам отказаться от использования Claude, хотя и предоставил Пентагону шесть месяцев на постепенный отказ от продукта, глубоко интегрированного в засекреченные военные системы, в том числе применявшиеся в войне с Ираном.

«Мы не считаем это решение юридически обоснованным и не видим иного выхода, кроме как оспорить его в суде», — написал гендиректор Anthropic Дарио Амодеи в публикации в блоге в четверг (источник на английском языке).

В иске содержится просьба к суду отменить статус «риска для цепочек поставок» и запретить федеральным ведомствам применять его.

«Конституция не позволяет правительству использовать свою колоссальную власть, чтобы наказывать компанию за выражение позиции, защищенной законом», — говорится в иске Anthropic. «Anthropic обращается к суду как к последнему средству, чтобы отстоять свои права и остановить незаконную кампанию возмездия со стороны исполнительной власти».

Как сообщило агентство AP, Министерство обороны отказалось от комментариев в понедельник, сославшись на политику не высказываться по вопросам, находящимся на рассмотрении в суде.

В Anthropic заявили, что стремились запретить использование своей технологии в двух ключевых сферах: для массовой слежки за американцами и для полностью автономных вооружений.

Министр обороны Пит Хегсет и другие чиновники публично настаивали, что компания должна согласиться на «любые законные способы» использования Claude и грозили наказанием в случае отказа Anthropic выполнить это требование.

Anthropic разрабатывает чат-бота Claude и остается единственной среди сопоставимых компаний, которая не поставляет свои технологии в новую внутреннюю сеть американских военных.

По словам Anthropic, в июле прошлого года компания получила от Министерства обороны США контракт на 200 млн долларов (167 млн евро) на «создание прототипов передовых продуктов ИИ, повышающих национальную безопасность США».

В 2024 году компания заключила(источник на английском языке)target="_blank" rel="noopener noreferrer nofollow" href="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/" tooltip="https://investors.palantir.com/news-details/2024/Anthropic-and-Palantir-Partner-to-Bring-Claude-AI-Models-to-AWS-for-U.S.-Government-Intelligence-and-Defense-Operations/"> партнерство с Palantir Technologies, чтобы интегрировать Claude в программное обеспечение американской разведки.

Перейти к комбинациям клавиш для доступности
Поделиться Комментарии

Также по теме

Как виртуальные ассистенты ИИ Dassault Systèmes меняют промышленный дизайн и производство

Австралия вводит проверку возраста для ИИ‑чатботов, игр 18+ и поисковиков

Сработает ли европейская соцсеть на деньги налогоплательщиков?