Newsletter Рассылка новостей Events События подкасты Видео Africanews
Loader
Свяжитесь с нами
Реклама

Почему Anthropic и США зашли в тупик из-за военного контракта

ФОТОГРАФИЯ ИЗ АРХИВА: министр обороны Пит Хегсет стоит у Пентагона во время церемонии встречи японского министра обороны в Вашингтоне, 15 января 2026 года.
На архивном фото: министр обороны Пит Хегсет стоит у здания Пентагона во время церемонии встречи главы Минобороны Японии, Вашингтон, 15 января 2026 года. Авторское право  AP Photo/Kevin Wolf, File
Авторское право AP Photo/Kevin Wolf, File
By Anna Desmarais и AP
Опубликовано
Поделиться Комментарии
Поделиться Close Button

Компания Anthropic, занимающаяся ИИ, и Пентагон США зашли в тупик. Вот что важно знать об этом противостоянии.

Правительство США угрожает прекратить военные контракты с компанией Anthropic, если та не откроет свои технологии ИИ для неограниченного военного использования.

РЕКЛАМА
РЕКЛАМА

Anthropic, создатель чат-бота Claude, остается единственной среди своих конкурентов, которая не предоставляет свои технологии для новой внутренней сети вооруженных сил США.

Генеральный директор компании Дарио Амодеи неоднократно заявлял о своих этических опасениях по поводу неконтролируемого использования ИИ государством, включая риски, связанные с полностью автономными ударными беспилотниками и массовой слежкой с применением ИИ, которая позволяет отслеживать инакомыслие.

В июле прошлого года Anthropic выиграла контракт Министерства обороны США на 200 миллионов долларов (167 миллионов евро) на «создание прототипов передовых возможностей ИИ, укрепляющих национальную безопасность США», сообщила компания. В 2024 году она заключила партнёрство (источник на английском языке) с Palantir Technologies для интеграции Claude в программное обеспечение американских разведслужб.

Как сообщается, министр обороны США Пит Хегсет во вторник заявил, что расторгнет контракт на 200 миллионов долларов (167 миллионов евро) и объявит компанию «риском для цепочек поставок», если Anthropic не выполнит требования.

Если Anthropic будет признана риском для цепочек поставок в соответствии с американским законодательством о госзакупках законом (источник на английском языке), правительство сможет исключать компанию из числа претендентов на государственные контракты, снимать её продукты с рассмотрения и предписывать генеральным подрядчикам не пользоваться услугами этого поставщика.

В сообщениях о встрече Хегсета с Дарио Амодеи, генеральным директором и сооснователем Anthropic, также говорится, что глава Пентагона пригрозил применить к компании Закон о военном производстве (источник на английском языке) (Defense Production Act), который предоставляет президенту США широкие полномочия направлять деятельность частных компаний в интересах национальной безопасности, включая доступ к их технологиям.

Euronews Next обратилась за подтверждением этих обвинений в Anthropic и Министерство обороны США, но на момент публикации ответов не поступило.

Anthropic отказывается от основного обещания по безопасности

Anthropic давно позиционирует себя как более ответственную и нацеленную на безопасность компанию среди лидеров в сфере ИИ, с тех пор как её основатели ушли из OpenAI и создали стартап в 2021 году.

Во вторник Anthropic заявила в интервью журналу Time, что отказывается от своего обязательства не выпускать систему ИИ, пока не сможет гарантировать достаточность мер безопасности.

Вместо этого компания представила новую версию политики ответственного масштабирования, в которой изложена её концепция снижения катастрофических рисков, связанных с ИИ.

Научный директор Anthropic Джаред Каплан сообщил изданию, что удерживать компанию от обучения новых моделей, пока конкуренты без ограничений продвигаются вперёд и внедряют системы ИИ без серьёзных защитных механизмов, не поможет ей сохранять позиции в гонке за лидерство в ИИ.

«Если один разработчик ИИ приостановит работу над новыми системами, чтобы внедрить меры безопасности, в то время как другие продолжат обучение и развертывание систем ИИ без серьёзных ограничений, это может привести к менее безопасному миру», — говорится в новой политике Anthropic.

«Темп развития будут задавать разработчики с самыми слабыми защитными механизмами, а ответственные компании утратят возможность проводить исследования в области безопасности и работать на благо общества».

В документе отделяются стремление Anthropic внедрять стандарты безопасности во всей отрасли и её собственные цели как компании, для которой безопасность по-прежнему остаётся приоритетом.

По словам Anthropic, новая политика предполагает, что компания будет разрабатывать для своих моделей «амбициозные, но достижимые» дорожные карты в области безопасности, а также публиковать отчёты о рисках, в которых будут описаны ожидаемые угрозы и оценка оправданности вывода модели на рынок.

Перейти к комбинациям клавиш для доступности
Поделиться Комментарии

Также по теме

Будущее железных дорог: робособаки и дроны в метро Китая

Соцсети нарочно затягивают, и можно ли победить алгоритмы?

Почему Anthropic и США зашли в тупик из-за военного контракта