Newsletter Рассылка новостей Events События подкасты Видео Africanews
Loader
Свяжитесь с нами
Реклама

Anthropic и OpenAI нанимают военных экспертов, чтобы предотвратить катастрофические злоупотребления

На архивном фото: сайт и мобильное приложение Anthropic, Нью-Йорк, 5 июля 2024 года.
АРХИВ. На фото показаны сайт и мобильное приложение Anthropic, Нью-Йорк, 5 июля 2024 года. Авторское право  AP Photo/Richard Drew, File
Авторское право AP Photo/Richard Drew, File
By Anna Desmarais
Опубликовано
Поделиться Комментарии
Поделиться Close Button

Компания Anthropic и OpenAI привлекают экспертов по химическим веществам и взрывам, чтобы создать защитные барьеры безопасности для своих ИИ‑систем.

Компании в сфере искусственного интеллекта (ИИ) Anthropic и OpenAI ищут специалистов по вооружениям и взрывчатым веществам, чтобы предотвратить злоупотребление своей технологией, следует из опубликованных ими вакансий.

РЕКЛАМА
РЕКЛАМА

Anthropic сообщила в публикации на LinkedIn о том (источник на английском языке), что ищет специалиста по политике в области химического оружия и взрывов, который поможет предотвратить «катастрофическое злоупотребление» ее технологиями, определяя, как ее ИИ‑системы обращаются с чувствительной информацией в этих областях.

Этот сотрудник в Anthropic будет разрабатывать и контролировать защитные меры, определяющие, как модели ИИ реагируют на запросы о химическом оружии и взрывчатке. Он также будет оперативно реагировать на любые случаи эскалации в запросах, связанных с оружием и взрывами, которые выявит Anthropic.

От кандидатов требуется как минимум пятилетний опыт работы в области «защиты от химического оружия и/или взрывчатых веществ», а также знание «радиологических рассеивающих устройств», то есть грязных бомб. Роль предполагает разработку (источник на английском языке) новых методов оценки рисков, на которые руководство компании сможет полагаться при проведении особо важных запусков.

В объявлении OpenAI о вакансии, опубликованном в начале месяца, говорилось, что компания ищет исследователей в команду Preparedness, которая отслеживает «катастрофические риски, связанные с передовыми моделями ИИ».

Также компания разместила вакансию специалиста по моделированию угроз (Threat Modeler). На него возлагается основная ответственность за «выявление, моделирование и прогнозирование передовых рисков» и роль «центрального звена, объединяющего технический, управленческий и политический взгляды на приоритизацию, фокус и обоснование нашего подхода к рискам от передовых ИИ».

Euronews Next обратилась в Anthropic и OpenAI за комментарием по поводу вакансий, но на момент публикации ответа не получила.

Эти наймы последовали за тем, как Anthropic оспорила в суде решение правительства США, признавшего компанию «риском для цепочек поставок», статусом, который позволяет властям блокировать контракты или предписывать ведомствам не сотрудничать с ней.

Конфликт начался 24 февраля, когда Министерство войны (DOW) потребовало предоставить неограниченный доступ к чат-боту Claude, разработанному Anthropic.

Генеральный директор компании Дарио Амодеи заявил (источник на английском языке), что контракты с DOW не должны предусматривать использование Claude для массового внутреннего слежения или интеграцию чат-бота в полностью автономные виды оружия.

Вскоре после разрыва отношений с Anthropic OpenAI заключила соглашение с Министерством войны (DOW) о развертывании своих ИИ‑систем в засекреченных условиях. Компания утверждает, что в договор включены жесткие «красные линии», в частности запрет на использование ее систем для массового слежения или в автономных видах вооружений.

Перейти к комбинациям клавиш для доступности
Поделиться Комментарии

Также по теме

Игроки Pokémon Go незаметно помогали обучать курьерских роботов

От ИИ-агентов до орбиты: главные итоги ежегодной конференции Nvidia

Meta прекращает сквозное шифрование личных сообщений в Instagram