Беспрецедентные действия администрации Трампа против Anthropic из‑за требований к ИИ вынуждают господрядчиков пересмотреть использование чат-бота Claude этой компании.
Администрация США реализует свою угрозу признать компанию Anthropic, занимающуюся искусственным интеллектом (ИИ), риском для цепочки поставок — беспрецедентный шаг, который может заставить других государственных подрядчиков отказаться от использования чат-бота Claude.
Пентагон заявил в четверг, что «официально уведомил руководство Anthropic о том, что компания и ее продукты признаны риском для цепочки поставок; решение вступает в силу немедленно».
Похоже, этим решением была поставлена точка в дальнейших переговорах с Anthropic — почти через неделю после того, как президент Дональд Трамп и министр обороны США Пит Хегсет обвинили компанию в создании угрозы национальной безопасности.
В прошлую пятницу, накануне войны с Ираном, Трамп и Хегсет объявили о ряде обещанных санкций после того, как гендиректор Anthropic Дарио Амодеи отказался отступить от своей позиции, опасаясь, что продукция компании может быть использована для массовой слежки за американцами или полностью автономного оружия.
В заявлении, распространенном Амодеи в четверг, он сказал: «Мы не считаем это решение юридически обоснованным и не видим иного выхода, кроме как оспорить его в суде».
«Речь идет об одном базовом принципе: вооруженные силы должны иметь возможность использовать технологии для любых законных целей», — говорится в заявлении Пентагона.
«Военные не позволят поставщику вмешиваться в систему подчинения, ограничивая законное использование критически важной технологии и подвергая наших военнослужащих риску», — добавили там.
Амадеи возразил, что узкие исключения, которых добивалась Anthropic для ограничения слежки и автономного оружия, «касаются сфер применения на высоком уровне, а не оперативного принятия решений».
По его словам, в последние дни у компании были «результативные переговоры» с Пентагоном о том, сможет ли военное ведомство и дальше использовать Claude или будет организован «плавный переход» на другие решения, если договориться не удастся.
Трамп отвел военным шесть месяцев на отказ от Claude, который уже широко интегрирован в военные и национальные системы безопасности. Амодеи заявил, что приоритетом для компании остается гарантия того, что военнослужащие не будут «лишены важных инструментов в разгар крупномасштабных боевых действий».
Некоторые оборонные подрядчики уже начали сворачивать сотрудничество с Anthropic — восходящей звездой технологической отрасли, которая поставляет Claude самым разным компаниям и государственным учреждениям.
Оборонная компания Lockheed Martin заявила, что будет «следовать указаниям президента и Министерства войны» и искать других поставщиков крупных языковых моделей.
«Мы ожидаем минимального воздействия, поскольку Lockheed Martin не зависит ни от одного поставщика LLM в какой-либо части нашей деятельности», — отметили в компании.
Пока неясно, как именно Министерство обороны США будет трактовать масштаб введенного статуса риска. По словам Амодеи, уведомление, которое Anthropic получила от Пентагона в среду, показывает, что он распространяется только на использование Claude клиентами как «непосредственной части» их военных контрактов.
В Microsoft заявили, что юристы компании изучили норму и она «может продолжать работать с Anthropic над проектами, не связанными с обороной».
Решение Пентагона вызвало критику
Решение Пентагона применить норму, предназначенную для противодействия угрозам в цепочках поставок со стороны иностранных противников, встретило широкую критику. В федеральных нормативных актах риск для цепочки поставок определяется как «риск того, что противник может саботировать систему, злонамеренно внедрить в нее нежелательные функции или иным образом подорвать ее работу» с целью нарушить, ослабить или использовать ее для шпионажа.
Сенатор США Кирстен Джиллибранд, демократ от штата Нью-Йорк и член комитетов Сената по вооруженным силам и разведке, назвала это «опасным злоупотреблением инструментом, предназначенным для борьбы с технологиями, контролируемыми противником».
«Это опрометчивое решение недальновидно, самоуничтожительно и является подарком нашим противникам», — говорится в ее письменном заявлении, опубликованном в четверг.
Нил Чилсон, республиканец и бывший главный технолог Федеральной торговой комиссии, который теперь возглавляет направление политики в области ИИ в Институте изобилия, заявил, что это решение выглядит как «масштабное превышение полномочий, которое нанесет ущерб и американскому сектору ИИ, и возможностям вооруженных сил получать лучшую технологию для американских военнослужащих».
Ранее в тот же день группа бывших высокопоставленных чиновников в сфере обороны и национальной безопасности направила законодателям письмо, выразив «серьезную обеспокоенность» новым статусом.
«Использование этих полномочий против американской компании на своей территории является серьезным отступлением от их изначального назначения и создает опасный прецедент», — говорится в письме бывших чиновников и экспертов по политике, среди которых бывший директор ЦРУ Майкл Хейден и отставные руководители ВВС, армии и ВМС США.
Авторы письма подчеркнули, что подобное обозначение призвано «защищать Соединенные Штаты от проникновения иностранных противников — компаний, зависящих от Пекина или Москвы, а не от американских инноваторов, работающих прозрачно и в рамках закона. Применение этого инструмента для наказания американской компании за отказ убрать защитные меры против массовой внутренней слежки и полностью автономного оружия является категорической ошибкой с последствиями, выходящими далеко за рамки данного спора».
Anthropic фиксирует всплеск пользовательских скачиваний
Параллельно с потерей крупных партнерств с оборонными подрядчиками Anthropic за последнюю неделю столкнулась со всплеском пользовательских скачиваний: многие встали на ее сторону, поддержав моральную позицию компании. По данным Anthropic, каждый день на этой неделе более миллиона человек регистрировались в Claude, что позволило ему обойти ChatGPT от OpenAI и Gemini от Google и выйти на первое место среди приложений с ИИ в магазине приложений Apple более чем в 20 странах.
Конфликт с Пентагоном еще больше обострил ожесточенное соперничество Anthropic с OpenAI, начавшееся после того, как бывшие руководители OpenAI, включая Амодеи, в 2021 году основали Anthropic.
Спустя несколько часов после того, как Пентагон в прошлую пятницу ввел санкции против Anthropic, OpenAI объявила о сделке, которая фактически заменит Anthropic на ChatGPT в засекреченных военных системах.
В OpenAI заявили, что добивались аналогичных ограничений в отношении внутренней слежки и полностью автономного оружия, но позднее им пришлось изменить условия соглашений, и гендиректор Сэм Альтман признал, что не следовало торопиться с заключением сделки, которая «выглядела оппортунистической и небрежно подготовленной».
Амадеи также выразил сожаление по поводу своей роли в том «трудном дне для компании», заявив в четверг, что хочет «напрямую извиниться» за внутреннюю записку, разосланную сотрудникам Anthropic, в которой он критиковал поведение OpenAI и предположил, что Anthropic наказывают за отказ воздавать Трампу «диктатороподобную похвалу».