Newsletter Рассылка новостей Events События подкасты Видео Africanews
Loader
Свяжитесь с нами
Реклама

Эксперты предупреждают: открытые биоданные могут помочь ИИ создавать опасные патогены

АРХИВНОЕ ФОТО: Лаборант смотрит на экран компьютера во время исследования коронавируса COVID-19 в Бельгии.
АРХИВ: Лаборант смотрит на экран компьютера во время исследований коронавируса COVID-19 в Бельгии. Авторское право  Copyright 2020 The Associated Press. All rights reserved
Авторское право  Copyright 2020 The Associated Press. All rights reserved
By Marta Iraola Iribarren
Опубликовано
Поделиться Комментарии
Поделиться Close Button

Более ста учёных призывают ввести защитные меры для биологических наборов данных повышенного риска, чтобы предотвратить злоупотребление ИИ и создание смертоносных патогенов.

Модели искусственного интеллекта (ИИ) для биологии в значительной степени зависят от больших массивов биологических данных, включая генетические последовательности и характеристики патогенов. Но должна ли эта информация быть общедоступной и как обеспечить её законное использование?

РЕКЛАМА
РЕКЛАМА

Более 100 исследователей предупредили, что неограниченный доступ к определённым биологическим наборам данных может позволить системам ИИ помогать в создании или улучшении опасных вирусов, и призвали к более жёстким мерам защиты от злоупотреблений.

В открытом письме (источник на английском языке) исследователи из ведущих институтов, включая Университет Джонса Хопкинса, Оксфордский университет, Университет Фордем и Стэнфордский университет, утверждают, что, хотя открытый доступ к научным данным ускорил открытия, небольшая часть новых биологических данных при злоупотреблении несёт риски для биобезопасности.

«Цена ошибок в управлении биологическими данными чрезвычайно высока, поскольку модели ИИ могут помочь создать серьёзные биологические угрозы», – пишут авторы.

Модели ИИ, используемые в биологии, могут предсказывать мутации, выявлять закономерности и генерировать более заразные варианты пандемических патогенов.

Авторы называют это «вызывающей тревогу возможностью», которая может ускорить и упростить создание передающихся биологических патогенов, способных вызвать пандемии среди людей или сходные вспышки среди животных, растений или в окружающей среде.

Биологические данные в целом, отмечают исследователи, должны быть открытыми, однако «данные о патогенах, вызывающие наибольшую озабоченность», требуют более строгого контроля безопасности.

«Мы сосредоточены на том, чтобы определить и урегулировать доступ к наиболее опасным наборам данных до того, как они станут широко доступны разработчикам ИИ», – говорится в статье, где предлагается новая система регулирования доступа.

«В эпоху, когда по всему миру создаются биологические модели ИИ с открытыми весами, ограничение доступа к чувствительным данным о патогенах только для легитимных исследователей может стать одним из наиболее перспективных способов снижения рисков», – заявил Мориц Ханке, соавтор письма из Университета Джонса Хопкинса.

Что делают разработчики

В настоящее время не существует универсальной системы регулирования таких наборов данных. Хотя некоторые разработчики добровольно исключают наиболее опасные данные, учёные считают, что чёткие и единообразные правила должны распространяться на всех.

Разработчики ведущих биологических моделей ИИ – Evo, созданной исследователями из Arc Institute, Стэнфорда и TogetherAI, и ESM3 от EvolutionaryScale, – исключили из обучающих данных отдельные вирусные последовательности.

В феврале 2025 года команда EVO 2 объявила, что исключила из своих наборов данных патогены, поражающие людей и другие сложные организмы, из-за этических и связанных с безопасностью рисков и чтобы «предотвратить использование Evo для разработки биологического оружия».

EVO 2 – это открытая модель ИИ для биологии, которая может прогнозировать последствия мутаций ДНК, проектировать новые геномы и выявлять закономерности в генетическом коде.

«Сейчас не существует основанных на экспертном консенсусе рекомендаций о том, какие данные несут существенные риски, поэтому некоторые разработчики на переднем крае технологий вынуждены действовать по собственному усмотрению и добровольно исключать вирусные данные из обучения», – написал в LinkedIn автор исследования Джасси Пану, соавтор письма.

Разные типы рискованных данных

Авторы отмечают, что предлагаемый ими подход относится лишь к небольшой части биологических наборов данных.

Они вводят пятиуровневую систему Biosecurity Data Level (BDL) для классификации данных о патогенах, ранжируя их по уровню «риска» в зависимости от того, насколько они позволяют системам ИИ изучать общие вирусные паттерны и биологические угрозы для животных и людей. В неё входят:

BDL-0: повседневные биологические данные. Они не должны ограничиваться и могут свободно распространяться.

BLD-1: базовые строительные блоки вирусов, такие как генетические последовательности. Жёсткий контроль безопасности не требуется, но вход и доступ должны отслеживаться.

BLD-2: данные о свойствах животных вирусов, например, о межвидовой передаче или способности выживать вне хозяина.

BLD-3: данные о характеристиках человеческих вирусов, таких как заразность, симптомы и устойчивость к вакцинам.

BLD-4: модифицированные человеческие вирусы, например такие мутации вируса COVID-19, которые делают его более заразным. Для этой категории предполагаются наиболее строгие ограничения.

Обеспечение безопасного доступа

Чтобы гарантировать безопасный доступ, авторы письма призывают внедрять специальные технические инструменты, которые позволят поставщикам данных проверять легитимность пользователей и отслеживать возможные злоупотребления.

Среди предлагаемых инструментов – цифровые водяные знаки (watermarking), то есть встраивание в наборы данных скрытых уникальных идентификаторов для упрощения отслеживания утечек, средства подтверждения происхождения данных, журналы аудита, фиксирующие доступ и изменения с подписями, защищёнными от подделки, а также поведенческая биометрия, позволяющая отслеживать уникальные паттерны взаимодействия пользователей.

Исследователи утверждают, что по мере того, как системы ИИ становятся всё более мощными и распространёнными, жизненно важно найти баланс между открытостью и необходимыми ограничениями безопасности в отношении высокорисковых данных.

Перейти к комбинациям клавиш для доступности
Поделиться Комментарии

Также по теме

Учёные: загрязнённый воздух повышает риск болезни Альцгеймера

Одна доза активного компонента аяваски может ослабить депрессию, установили учёные

Ученые обнаружили 5000-летние бактерии, устойчивые к современным антибиотикам