Министерство обороны признало Anthropic «риском для цепочек поставок», что позволяет отстранять компанию от тендеров и запрещать другим фирмам с ней работать.
Microsoft, отставные военные руководители, и аналитические центры по искусственному интеллекту (ИИ) поддерживают Anthropic в ее иске об отмене введенного при администрации Трампа статуса компании как «риска для цепочек поставок».
Действия Министерства войны США (DOW)«заставляют государственных подрядчиков подчиняться расплывчатым и плохо сформулированным указаниям, которые никогда прежде публично не применялись против американской компании», говорится в юридическом заключении Microsoft.
В судебном документе Microsoft говорится, что присвоение статуса риска для цепочек поставок «может повлечь серьезные экономические последствия, не отвечающие общественным интересам», и компания просит суд временно снять этот статус.
Эти материалы были поданы после того, как на прошлой неделе Anthropic оспорила в суде решение Министерства войны США.
Статус Anthropic как фактора риска для цепочек поставок позволяет правительству исключать компанию из числа участников конкурсов на госконтракты, снимать ее продукты с рассмотрения и запрещать генеральным подрядчикам напрямую пользоваться услугами этого поставщика.
До недавнего времени Anthropic была единственной среди своих конкурентов, чьи продукты были одобрены для использования в засекреченных военных сетях. Ее чат-бот с ИИ был развернут по всей системе закрытых сетей американского правительства, использовался в национальных ядерных лабораториях и выполнял аналитическую работу для Министерства войны.
Кто еще поддержал Anthropic?
В поддержку Anthropic было подано несколько коллективных заявлений от американских военных чиновников, крупнейших технологических компаний и организаций, работающих с ИИ.
Действия министра обороны США Пита Хегсета в отношении Anthropic «угрожают принципам верховенства права, которые долгие годы укрепляли наши вооруженные силы», говорится в документе, который поддержал Майкл Хейден, бывший директор Центрального разведывательного управления (ЦРУ) США.
Авторы также утверждают, что действия Хегсета являются злоупотреблением властными полномочиями с целью «отомстить частной компании, которая не устроила руководство».
В заявлении бывших военных говорится, что «внезапная неопределенность» вокруг технологии, глубоко встроенной в военные системы, может сорвать планирование и поставить солдат под угрозу во время текущих операций, таких как война в Иране.
Еще одно заявление (источник на английском языке), поданное от имени 37 инженеров по ИИ, ранее работавших в OpenAI и DeepMind компании Google, назвало действия DOW «неправомерным и произвольным использованием власти, имеющим серьезные последствия для нашей отрасли».
«Если этому дать ход, попытка наказать одну из ведущих американских компаний в сфере ИИ неизбежно скажется на промышленной и научной конкурентоспособности США в области искусственного интеллекта и за ее пределами», говорится в документе. «И это охладит открытую дискуссию в нашей области о рисках и преимуществах современных систем ИИ».
В отдельном заявлении говорится, что нетрудно «представить мир, в котором правительство фактически контролирует все, что делают и говорят американцы», если власти смогут диктовать политику Anthropic.
Совместное заявление (источник на английском языке), подготовленное такими организациями, как Electronic Frontier Foundation и Институт Катона, утверждает, что действия правительства нарушают Первую поправку к Конституции США, которая закрепляет право на свободу слова.
«Действия правительства ... угрожают жизнеспособности и независимости нашей демократии», говорится в документе.
Как начался конфликт?
Конфликт между Anthropic и американскими военными начался после того, как компания отказалась предоставить военным неограниченный доступ к своему чат-боту с ИИ Claude. Правительство дало Anthropic 48 часов на то, чтобы открыть доступ, иначе грозило санкциями.
Генеральный директор Anthropic Дарио Амодеи сообщил, что компания обозначила для военных две красные линии: ее технологии не должны использоваться для массовой внутренней слежки и не должны встраиваться в полностью автономное оружие.
Амодеи заявил в заявлении (источник на английском языке) от 26 февраля, что «не может по совести удовлетворить просьбу Пентагона» о неограниченном доступе к системам ИИ компании.
«В узком наборе случаев мы считаем, что ИИ может подрывать, а не защищать демократические ценности», написал он. «Некоторые варианты использования также просто выходят за рамки того, что сегодняшние технологии способны делать безопасно и надежно», добавил он.
В своем обращении в суд Microsoft поддержала эти красные линии Anthropic, отметив, что «американский ИИ не должен использоваться для ведения массовой внутренней слежки или начала войны без контроля со стороны человека» и что такая позиция «соответствует закону».
По словам Хегсета, в течение ближайших шести месяцев Claude также будет постепенно выведен из военных операций.
В заявлении Амодеи отметил, что Министерство войны может выбирать подрядчиков, чье видение в большей степени совпадает с его собственным, однако «с учетом значительной пользы, которую технологии Anthropic приносят нашим вооруженным силам, мы надеемся, что они пересмотрят свое решение».