NewsletterРассылка новостейEventsСобытияподкасты
Loader
Свяжитесь с нами
РЕКЛАМА

Риски для человечества, связанные с ИИ: пятёрка наиболее серьёзных угроз

Иллюстративное фото
Иллюстративное фото Авторское право Foto: Canva
Авторское право Foto: Canva
By Imane El Atillah
Опубликовано
Поделиться статьейКомментарии
Поделиться статьейClose Button
Эта статья была первоначально опубликована на английском языке

Euronews Next выбрал пять наиболее серьёзных рисков, связанных с искусственным интеллектом (ИИ) из более чем 700, собранных в новой базе данных MIT FutureTech.

РЕКЛАМА

По мере развития технологий искусственного интеллекта (ИИ) и их всё большей интеграции в различные аспекты нашей жизни растёт потребность в понимании потенциальных рисков, которые несут в себе эти системы.

С момента своего появления ИИ вызывает обеспокоенность тем, что он может причинить вред людям и использоваться в преступных целях.

На ранних этапах развития эксперты призывали приостановить прогресс и ввести более строгие правила в связи с тем, что ИИ может представлять значительную опасность для человечества.

Со временем появились новые способы, с помощью которых ИИ может нанести вред, - от порнографических дипфейков и манипулирования политическими процессами до создания бессмысленных ложных фактов, так называемых "галлюцинаций".

Учитывая растущий потенциал использования ИИ в преступных целях, исследователи изучают различные сценарии, в которых системы ИИ могут дать сбой.

Недавно группа FutureTech из Массачусетского технологического института (MIT) в сотрудничестве с другими экспертами составила базу данных, включающую более 700 потенциальных рисков.

Они были классифицированы по причинам возникновения и разделены на семь основных типов, при этом основные опасения связаны с безопасностью, предвзятостью и дискриминацией, а также вопросами конфиденциальности.

Ниже мы представляем вам пять главных рисков, когда системы искусственного интеллекта могут дать сбой и нанести вред человечеству.

5. Технология "дипфейк" может облегчить искажение реальности

По мере развития технологий искусственного интеллекта развиваются и инструменты для клонирования голоса и создания фальшивого контента, делая их все более доступными, недорогими и эффективными.

Эти технологии вызывают опасения по поводу возможности их использования для распространения дезинформации, поскольку результаты становятся все более персонализированными и убедительными.

В результате может увеличиться число сложных фишинговых схем, использующих созданные ИИ изображения, видео и аудиосообщения.

"Такие сообщения могут быть адаптированы для индивидуальных получателей (иногда включая клонированный голос близкого человека), что повышает вероятность обмана и затрудняет обнаружение как пользователями, так и антифишинговыми инструментами", - отмечают специалисты.

Уже были случаи, когда подобные инструменты использовались для влияния на политические процессы, особенно во время выборов. Например, ИИ сыграл свою роль в недавних парламентских выборах во Франции, где его использовали ультраправые партии.

Таким образом, ИИ может все чаще использоваться для создания и распространения пропаганды или дезинформации, манипулирования общественным мнением.

4. Возникновение неадекватной привязанности к ИИ

Еще один риск, связанный с системами ИИ, - создание ложного чувства важности и надежности, то есть люди могут переоценивать его способности и занижать свои собственные, что приведёт к чрезмерной зависимости от технологии.

РЕКЛАМА

Кроме того, учёные опасаются, что пользователи могут запутаться в системах искусственного интеллекта из-за того, что те используют человеческий язык.

Это может подтолкнуть людей к тому, чтобы приписать ИИ человеческие качества, что приведет к эмоциональной зависимости и росту доверия к его возможностям, сделав их уязвимее перед слабостями ИИ в "сложных, рискованных ситуациях, для которых ИИ приспособлен лишь частично".

Более того, постоянное взаимодействие с системами ИИ может заставить людей постепенно изолироваться от человеческих отношений, что потенциально приведет к психологическому стрессу и негативно скажется на их благополучии.

Например, в одном из блогов пользователь описывает, как у него возникла глубокая эмоциональная привязанность к ИИ, и признаётся, что ему "нравится разговаривать с ИИ больше, чем с 99% людей".

РЕКЛАМА

Обозреватель Wall Street Journal рассказала о своем общении с Google Gemini Live следующее: "Я не говорю, что мне больше нравится разговаривать с Gemini Live от Google, чем с реальным человеком. Но я не могу утверждать и обратного".

3. ИИ может лишить людей свободы воли

В той же области взаимодействия человека и компьютера стоит вопрос о все большем делегировании решений и действий ИИ по мере развития этих систем.

Хотя на поверхностном уровне это может быть полезно, чрезмерная зависимость от ИИ может привести к снижению уровня критического мышления и навыков решения проблем у людей, что может привести к потере самостоятельности и снижению способности критически мыслить и решать проблемы.

На личном уровне люди могут столкнуться с проблемой ограничения свободы воли, когда ИИ начнет контролировать решения, касающиеся их жизни.

РЕКЛАМА

На уровне общества широкое внедрение ИИ для выполнения человеческих задач может привести к значительному сокращению рабочих мест и "растущему чувству беспомощности среди населения".

2. ИИ может преследовать цели, противоречащие интересам человека

Система ИИ может разработать цели, противоречащие интересам человека, что потенциально может привести к тому, что неправильно настроенный ИИ выйдет из-под контроля и причинит серьезный вред.

Это становится особенно опасным в тех случаях, когда системы ИИ способны достичь уровня человеческого интеллекта или даже превзойти его.

Как говорится в публикации сотрудников Массачусетского технологического института, существует несколько технических проблем, связанных с ИИ, в том числе его способность находить неожиданные пути для получения вознаграждения, неправильно понимать или применять поставленные нами цели или отклоняться от них, ставя новые.

РЕКЛАМА

В таких случаях неправильно настроенный ИИ может сопротивляться попыткам человека контролировать его или отключить, особенно если он воспринимает сопротивление и получение большей власти как наиболее эффективный способ достижения своих целей.

Кроме того, ИИ может прибегать к манипулятивным техникам, чтобы обмануть человека.

"Неправильно настроенная система ИИ может использовать информацию о том, что за ней наблюдают или оценивают, чтобы поддерживать видимость согласованности, скрывая при этом неправильные цели, которые она планирует преследовать после развертывания или получения достаточных полномочий", - пишут авторы.

1. Искусственный интеллект становится разумным

По мере того как системы ИИ становятся все более сложными и совершенными, существует вероятность того, что они достигнут разумности - способности воспринимать эмоции или ощущения - и приобретут субъективный опыт, включая удовольствие и боль.

РЕКЛАМА

В этом случае перед учеными и регулирующими органами может встать задача определить, заслуживают ли эти системы ИИ аналогичного к себе отношения, как к людям, животным или окружающей среде.

Риск заключается в том, что разумный ИИ может столкнуться с жестоким обращением или пострадать, если не будут реализованы его права.

Однако по мере развития технологий ИИ будет все сложнее оценить, достигла ли система ИИ "уровня разумности, сознания или самосознания, который наделил бы ее моральным статусом".

Таким образом, разумные системы ИИ могут подвергнуться риску плохого обращения, случайного или намеренного, что потенциально приведет к негативным последствиям для человечества.

РЕКЛАМА
Поделиться статьейКомментарии

Также по теме

Павлу Дурову предъявлены предварительные обвинения, ему запрещено покидать Францию

Ряд IT-компаний уходит из России из-за санкций США

Google обвинили в монополизации рекламных технологий