По словам экспертов, существующие и появляющиеся инструменты ИИ теоретически можно использовать для создания биологического оружия, способного вызвать пандемию.
Ранее в этом году ряд ведущих мировых экспертов по технологиям и борьбе с терроризмом собрался, чтобы проработать гипотетический сценарий: глобальная пандемия, спровоцированная новым штаммом энтеровируса, умышленно созданным экстремистской группировкой с помощью искусственного интеллекта (ИИ).
Сценарий может звучать как сюжет научно-фантастического романа, но в ближайшие годы он вполне реалистичен, отмечает группа из 14 экспертов, собравшихся обсудить меры безопасности применения ИИ в сфере наук о жизни.
Согласно отчету по итогам обсуждений, эксперты сочли эту вымышленную пандемию (в ней предусматривались 850 млн случаев и 60 млн смертей во всем мире) «крайне тревожной и требующей безотлагательных мер по предотвращению».
ИИ уже меняет медицину и обещает ускорить разработку новых лекарств и вакцин. Но специалисты также предупреждают, что биологическое оружие, созданное с применением ИИ, может нанести человечеству огромный ущерб.
Группа экспертов, собранная в феврале по инициативе Nuclear Threat Initiative и Мюнхенской конференции по безопасности, предупредила, что стремительное развитие ИИ «размывает барьеры на пути разработки биологического оружия злоумышленниками».
По мнению участников, эти угрозы вовсе не где-то в далеком будущем. С технической точки зрения уже возможно использовать существующие и новые биологические инструменты на базе ИИ, чтобы создавать патогены с пандемическим потенциалом, заявили эксперты.
Более того, действующие меры безопасности совершенно не готовы к таким угрозам, отметила группа.
Эксперты призвали к более тесному сотрудничеству между мировыми лидерами для оценки и реагирования на биологические угрозы, обусловленные ИИ.
Они также подчеркнули, что управление рисками ИИ должно уравновешиваться потенциальными преимуществами этих технологий, чтобы «избежать введения чрезмерных ограничений» на научные инновации.