Компания Anthropic, занимающаяся ИИ, и Пентагон США зашли в тупик. Вот что важно знать об этом противостоянии.
Правительство США угрожает прекратить военные контракты с компанией Anthropic, если та не откроет свои технологии ИИ для неограниченного военного использования.
Anthropic, создатель чат-бота Claude, остается единственной среди своих конкурентов, которая не предоставляет свои технологии для новой внутренней сети вооруженных сил США.
Генеральный директор компании Дарио Амодеи неоднократно заявлял о своих этических опасениях по поводу неконтролируемого использования ИИ государством, включая риски, связанные с полностью автономными ударными беспилотниками и массовой слежкой с применением ИИ, которая позволяет отслеживать инакомыслие.
В июле прошлого года Anthropic выиграла контракт Министерства обороны США на 200 миллионов долларов (167 миллионов евро) на «создание прототипов передовых возможностей ИИ, укрепляющих национальную безопасность США», сообщила компания. В 2024 году она заключила партнёрство (источник на английском языке) с Palantir Technologies для интеграции Claude в программное обеспечение американских разведслужб.
Как сообщается, министр обороны США Пит Хегсет во вторник заявил, что расторгнет контракт на 200 миллионов долларов (167 миллионов евро) и объявит компанию «риском для цепочек поставок», если Anthropic не выполнит требования.
Если Anthropic будет признана риском для цепочек поставок в соответствии с американским законодательством о госзакупках законом (источник на английском языке), правительство сможет исключать компанию из числа претендентов на государственные контракты, снимать её продукты с рассмотрения и предписывать генеральным подрядчикам не пользоваться услугами этого поставщика.
В сообщениях о встрече Хегсета с Дарио Амодеи, генеральным директором и сооснователем Anthropic, также говорится, что глава Пентагона пригрозил применить к компании Закон о военном производстве (источник на английском языке) (Defense Production Act), который предоставляет президенту США широкие полномочия направлять деятельность частных компаний в интересах национальной безопасности, включая доступ к их технологиям.
Euronews Next обратилась за подтверждением этих обвинений в Anthropic и Министерство обороны США, но на момент публикации ответов не поступило.
Anthropic отказывается от основного обещания по безопасности
Anthropic давно позиционирует себя как более ответственную и нацеленную на безопасность компанию среди лидеров в сфере ИИ, с тех пор как её основатели ушли из OpenAI и создали стартап в 2021 году.
Во вторник Anthropic заявила в интервью журналу Time, что отказывается от своего обязательства не выпускать систему ИИ, пока не сможет гарантировать достаточность мер безопасности.
Вместо этого компания представила новую версию политики ответственного масштабирования, в которой изложена её концепция снижения катастрофических рисков, связанных с ИИ.
Научный директор Anthropic Джаред Каплан сообщил изданию, что удерживать компанию от обучения новых моделей, пока конкуренты без ограничений продвигаются вперёд и внедряют системы ИИ без серьёзных защитных механизмов, не поможет ей сохранять позиции в гонке за лидерство в ИИ.
«Если один разработчик ИИ приостановит работу над новыми системами, чтобы внедрить меры безопасности, в то время как другие продолжат обучение и развертывание систем ИИ без серьёзных ограничений, это может привести к менее безопасному миру», — говорится в новой политике Anthropic.
«Темп развития будут задавать разработчики с самыми слабыми защитными механизмами, а ответственные компании утратят возможность проводить исследования в области безопасности и работать на благо общества».
В документе отделяются стремление Anthropic внедрять стандарты безопасности во всей отрасли и её собственные цели как компании, для которой безопасность по-прежнему остаётся приоритетом.
По словам Anthropic, новая политика предполагает, что компания будет разрабатывать для своих моделей «амбициозные, но достижимые» дорожные карты в области безопасности, а также публиковать отчёты о рисках, в которых будут описаны ожидаемые угрозы и оценка оправданности вывода модели на рынок.