Компания Anthropic и OpenAI привлекают экспертов по химическим веществам и взрывам, чтобы создать защитные барьеры безопасности для своих ИИ‑систем.
Компании в сфере искусственного интеллекта (ИИ) Anthropic и OpenAI ищут специалистов по вооружениям и взрывчатым веществам, чтобы предотвратить злоупотребление своей технологией, следует из опубликованных ими вакансий.
Anthropic сообщила в публикации на LinkedIn о том (источник на английском языке), что ищет специалиста по политике в области химического оружия и взрывов, который поможет предотвратить «катастрофическое злоупотребление» ее технологиями, определяя, как ее ИИ‑системы обращаются с чувствительной информацией в этих областях.
Этот сотрудник в Anthropic будет разрабатывать и контролировать защитные меры, определяющие, как модели ИИ реагируют на запросы о химическом оружии и взрывчатке. Он также будет оперативно реагировать на любые случаи эскалации в запросах, связанных с оружием и взрывами, которые выявит Anthropic.
От кандидатов требуется как минимум пятилетний опыт работы в области «защиты от химического оружия и/или взрывчатых веществ», а также знание «радиологических рассеивающих устройств», то есть грязных бомб. Роль предполагает разработку (источник на английском языке) новых методов оценки рисков, на которые руководство компании сможет полагаться при проведении особо важных запусков.
В объявлении OpenAI о вакансии, опубликованном в начале месяца, говорилось, что компания ищет исследователей в команду Preparedness, которая отслеживает «катастрофические риски, связанные с передовыми моделями ИИ».
Также компания разместила вакансию специалиста по моделированию угроз (Threat Modeler). На него возлагается основная ответственность за «выявление, моделирование и прогнозирование передовых рисков» и роль «центрального звена, объединяющего технический, управленческий и политический взгляды на приоритизацию, фокус и обоснование нашего подхода к рискам от передовых ИИ».
Euronews Next обратилась в Anthropic и OpenAI за комментарием по поводу вакансий, но на момент публикации ответа не получила.
Эти наймы последовали за тем, как Anthropic оспорила в суде решение правительства США, признавшего компанию «риском для цепочек поставок», статусом, который позволяет властям блокировать контракты или предписывать ведомствам не сотрудничать с ней.
Конфликт начался 24 февраля, когда Министерство войны (DOW) потребовало предоставить неограниченный доступ к чат-боту Claude, разработанному Anthropic.
Генеральный директор компании Дарио Амодеи заявил (источник на английском языке), что контракты с DOW не должны предусматривать использование Claude для массового внутреннего слежения или интеграцию чат-бота в полностью автономные виды оружия.
Вскоре после разрыва отношений с Anthropic OpenAI заключила соглашение с Министерством войны (DOW) о развертывании своих ИИ‑систем в засекреченных условиях. Компания утверждает, что в договор включены жесткие «красные линии», в частности запрет на использование ее систем для массового слежения или в автономных видах вооружений.