EventsСобытияподкасты
Loader
Свяжитесь с нами
РЕКЛАМА

Искусственный интеллект и будущее человечества: что беспокоит "крестного отца ИИ" Джеффри Хинтона?

Почему искусственный интеллект вызывает такое беспокойство, и что мы можем с этим сделать?
Почему искусственный интеллект вызывает такое беспокойство, и что мы можем с этим сделать? Авторское право Canva
Авторское право Canva
By Euronews и AP
Опубликовано Последние обновления
Поделиться статьейКомментарии
Поделиться статьейClose Button

Вот некоторые из самых серьезных опасений, которые высказываются по поводу искусственного интеллекта и будущего человечества.

РЕКЛАМА

Эксперты в области искусственного интеллекта (ИИ) бьют тревогу по поводу темпов и масштабов последних достижений в этой области, предупреждая, что они представляют собой не что иное, как угрозу для человечества.

Среди них и удостоенный наград ученый-компьютерщик Джеффри Хинтон, известный как "крестный отец ИИ", который в прошлом месяце уволился из Google, чтобы поделиться своими опасениями по поводу бесконтрольного развития новых инструментов ИИ.

"Я внезапно изменил свои взгляды на то, станут ли они более разумными, чем мы", - сказал 75-летний Хинтон в интервью MIT Technology Review на этой неделе.

"Я думаю, что сейчас они очень близки к этому, а в будущем они будут намного умнее нас... Как мы это переживем?" - задается вопросом ученый.

Хинтон не одинок в своих опасениях. В феврале генеральный директор разработчика ChatGPT компании OpenAI Сэм Альтман заявил, что мир, возможно, не так уж далек от "потенциально страшных" инструментов ИИ - и что регулирование будет иметь решающее значение, но на его разработку потребуется время.

Вскоре после того, как в марте стартап, поддерживаемый Microsoft, выпустил последнюю модель ИИ под названием GPT-4, более тысячи исследователей и специалистов подписали письмо, призывающее взять шестимесячную паузу в развитии ИИ, поскольку, по их словам, он представляет "серьезный риск для человечества".

Вот самые большие опасения, высказанные Хинтоном и другими экспертами.

1. ИИ уже может быть умнее нас

Наш мозг способен решать уравнения, водить автомобили и следить за сериалами Netflix благодаря своему таланту организовывать и хранить информацию, находить решения сложных проблем.

Приблизительно 86 миллиардов нейронов, расположенных в нашем мозге, и, что более важно, 100 триллионов связей, которые эти нейроны устанавливают между собой, делают это возможным.

По словам Хинтона, технология, лежащая в основе ChatGPT, имеет от 500 миллиардов до триллиона связей. Хотя, казалось бы, это ставит ее в невыгодное положение по сравнению с нами, Хинтон отмечает, что GPT-4, последняя модель ИИ от OpenAI, знает "в сотни раз больше", чем любой человек. Возможно, предполагает он, у него "гораздо лучший алгоритм обучения", чем у нас, что делает его более эффективным в решении когнитивных задач.

Исследователи давно заметили, что искусственным нейронным сетям требуется гораздо больше времени для усвоения и применения новых знаний, чем людям, поскольку их обучение требует огромного количества энергии и данных.

Хинтон утверждает, что это уже не так, отмечая, что такие системы, как GPT-4, могут быстро обучаться новому, если делать это правильно. Это навело его на мысль, что системы ИИ, возможно, уже перехитрили нас: они не только могут учиться быстрее - они также могут почти мгновенно делиться друг с другом копиями своих знаний.

"Это совершенно другая форма интеллекта", - сказал Хинтон в интервью MIT Technology Review. - Новая, более совершенная".

2. ИИ может "подстегнуть" распространение дезинформации

Что будут делать более умные, чем человек, системы ИИ? Одна из пугающих возможностей заключается в том, что злоумышленники, группы или целые государства могут просто использовать их для достижения своих собственных целей.

Десятки сайтов с фальшивыми новостями уже распространились по сети на разных языках. Некоторые из них публикуют сотни созданных ИИ статей в день, говорится в новом отчете компании NewsGuard, которая оценивает достоверность сайтов и отслеживает дезинформацию в сети.

РЕКЛАМА

Хинтон особенно обеспокоен тем, что инструменты ИИ могут быть обучены для подтасовки результатов выборов и даже развязывания войн.

И это может быть только начало.

"Не думайте ни на секунду, что Путин не создал бы гипер-интеллектуальных роботов с целью убийства украинцев, - отмечает Хинтон. - Он бы не колебался".

3. Сделает ли ИИ нас лишними?

По оценкам OpenAI, 80 процентов работников в США могут столкнуться с подобной проблемой из-за ИИ, а в отчете Goldman Sachs говорится, что эта технология может поставить под угрозу 300 миллионов рабочих мест с полной занятостью по всему миру.

РЕКЛАМА

По словам Хинтона, выживание человечества окажется под угрозой, если "умные вещи будут умнее нас".

"Возможно, мы будем существовать еще какое-то время, чтобы поддерживать работу электростанций", - предположил Хинтон. - Но после этого, возможно, уже нет".

"Эти создания, прочитав все романы, которые когда-либо были, и все, что когда-либо написал Макиавелли, узнают от нас, как манипулировать людьми", - сказал Хинтон. -Даже если у них не получится напрямую потянуть за рычаги, они точно смогут заставить сделать это нас".

4. Мы не знаем, как это остановить

"Я хотел бы иметь хорошее и простое решение, которое мог бы предложить, но у меня его нет", - добавил Хинтон. - Я не уверен, что такое решение существует".

РЕКЛАМА

Тем не менее, правительства уделяют пристальное внимание развитию ИИ. Белый дом вызвал руководителей Google, Microsoft и компании OpenAI, создающей ChatGPT, на встречу с вице-президентом США Камалой Харрис для откровенного разговора на тему снижения как краткосрочных, так и долгосрочных рисков, связанных с этой технологией.

Европейские законодатели также ускоряют переговоры о принятии новых правил в отношении ИИ, а антимонопольный регулятор Великобритании планирует изучить влияние ИИ на потребителей, бизнес и экономику, а также необходимость новых мер контроля над такими технологиями, как ChatGPT.

Неясно только, сможет ли кто-нибудь помешать такой державе, как например Россия, использовать технологии ИИ для доминирования над своими соседями или собственными гражданами.

Хинтон предполагает, что глобальное соглашение, подобное Конвенции о химическом оружии 1997 года, может стать хорошим первым шагом к установлению международных правил против использования ИИ в военных целях.

РЕКЛАМА
Поделиться статьейКомментарии

Также по теме

Лауреат Нобелевской премии по экономике: "Нерегулируемый ИИ усугубит неравенство в мире"

В ЕС разработаны первые правила для искусственного интеллекта

По оценкам Microsoft, от сбоя Crowdstrike пострадали 8,5 млн компьютеров по всему миру