Компания Anthropic, занимающаяся ИИ, и Пентагон США оказались в тупике. Вот главное, что вам нужно знать.
Правительство США угрожает прекратить военные контракты с компанией Anthropic, если та не откроет свои технологии ИИ для неограниченного военного использования, однако технокомпания твердо стоит на своем.
Генеральный директор Anthropic Дарио Амодеи заявил 26 февраля в заявлении (источник на английском языке), что «не может по совести удовлетворить просьбу Пентагона» о неограниченном доступе к системам ИИ компании.
«В ряде узких случаев мы считаем, что ИИ может подорвать, а не защитить демократические ценности, — написал он. — Некоторые способы применения также просто выходят за рамки того, что нынешние технологии способны делать безопасно и надежно».
Заявление Амодеи было опубликовано менее чем за 24 часа до установленного Министерством войны США срока в пятницу, к которому компания должна была предоставить ведомству полный доступ к Claude.
Anthropic, разработчик чат-бота Claude, остается последней среди своих конкурентов, кто до сих пор не поставляет свои технологии в новую внутреннюю сеть вооруженных сил США.
В июле прошлого года Anthropic получила контракт Министерства обороны США на 200 миллионов долларов (167 миллионов евро) на «разработку прототипов передовых возможностей ИИ для укрепления национальной безопасности США», сообщила компания. В 2024 году она заключила партнерство (источник на английском языке) с Palantir Technologies, чтобы интегрировать Claude в программное обеспечение американских спецслужб.
По сообщениям, министр обороны Пит Хегсет заявил 24 февраля, что расторгнет контракт на 200 миллионов долларов (167 миллионов евро) и объявит компанию «риском для цепочки поставок», если Anthropic не выполнит требования.
Если Anthropic признают риском для цепочек поставок в соответствии с американским закупочным законодательством (источник на английском языке), правительство сможет исключать компанию из числа участников конкурсов, не рассматривать ее продукцию и обязывать генеральных подрядчиков не пользоваться услугами этого поставщика.
Сообщалось также, что на встрече с Амодеи Хегсет пригрозил применить к компании закон Defense Production Act (источник на английском языке), который дает президенту США широкие полномочия обязать частные компании в приоритетном порядке удовлетворять потребности национальной безопасности, включая предоставление доступа к их технологиям.
В своем заявлении Амодеи подчеркнул, что контракты с Министерством войны не должны включать случаи, когда Claude используется для массовой внутренней слежки и интегрируется в полностью автономные виды вооружений.
По его словам, именно эти ограничения, по всей видимости, и стали причиной угроз со стороны ведомства вывести Anthropic из числа поставщиков для армии США.
В заявлении Амодеи назвал эти две угрозы «внутренне противоречивыми», поскольку одна из них объявляет Anthropic угрозой для безопасности, а другая утверждает, что Claude «имеет ключевое значение для национальной безопасности».
Он признал, что Министерство войны может выбирать подрядчиков, чье видение больше соответствует его собственному, однако «учитывая значительную пользу, которую технологии Anthropic приносят нашим вооруженным силам, мы надеемся, что ведомство пересмотрит свою позицию».
Чат-бот на базе ИИ уже внедрен в закрытые информационные сети правительства США, используется в национальных ядерных лабораториях и выполняет аналитическую работу непосредственно для Министерства войны.
Euronews Next обратилась за комментарием в Министерство войны США, однако на момент публикации ответа не получила.
Anthropic отказывается от ключевого обещания в сфере безопасности
Anthropic с момента основания в 2021 году, когда ее создатели ушли из OpenAI, позиционирует себя как одну из наиболее ответственных и ориентированных на безопасность компаний в сфере ИИ.
Во вторник Anthropic в интервью журналу Time заявила, что отказывается от своего принципа не выпускать системы ИИ до тех пор, пока нельзя гарантировать достаточность мер безопасности.
Вместо этого компания представила новую версию своей политики ответственного масштабирования, в которой описана ее концепция по снижению катастрофических рисков, связанных с ИИ.
Директор по науке Anthropic Джаред Каплан сообщил изданию, что ограничение компании в обучении новых моделей, в то время как конкуренты без оглядки на меры предосторожности продвигаются вперед, не поможет ей удержаться в гонке ИИ.
«Если один разработчик ИИ приостанавливает работу над новыми системами, чтобы внедрить меры безопасности, в то время как другие продолжают обучать и запускать системы ИИ без серьезных ограничений, это может привести к менее безопасному миру, — говорится в новой политике Anthropic. — Тогда темп будет задавать разработчик с самыми слабыми мерами защиты, а ответственные компании утратят возможность проводить исследования в области безопасности и работать на благо общества».
В документе разделяются стремление Anthropic повысить стандарты безопасности во всей отрасли и собственные цели компании, в которых безопасность по-прежнему остается приоритетом.
Anthropic заявила, что новая политика предусматривает составление для ее моделей «амбициозных, но реалистичных» дорожных карт по безопасности, а также публикацию отчетов о рисках, в которых будут описаны ожидаемые угрозы и оценка оправданности вывода модели на рынок.
Статья обновлена 27 февраля.