Newsletter Рассылка новостей Events События подкасты Видео Africanews
Loader
Свяжитесь с нами
Реклама

Чего ждать от ИИ в 2026 году?

Euronews Next разбирается, что может принести 2026 год искусственному интеллекту
Euronews Next разбирается, чего ждать от искусственного интеллекта в 2026 году Авторское право  Canva
Авторское право Canva
By Pascale Davies
Опубликовано
Поделиться Комментарии
Поделиться Close Button

Какие тренды ИИ в 2026 году? Euronews Next рассказывает о развитии "мировых моделей" и малых языковых моделей как альтернативе чат-ботам, а также о растущих опасениях в в связи с безопасностью, регулированием, устойчивостью.

Неприязнь людей к генеративному искусственному интеллекту (GenAI) в 2025 году не осталась незамеченной для словарей. Пара словарей назвали словом 2025 года «slop» или «AI slop», то есть низкокачественный контент, который ИИ производит в больших объёмах.

«Slop просачивается во всё», написал словарь Merriam-Webster. Год отметился и возможным провалом ИИ, активизировались разговоры о лопающемся пузыре.

Несмотря на это, мрачные настроения не остановили техкомпании, которые нарастили темп и выпустили новые модели ИИ. Новый Gemini 3 от Google встряхнул рынок и, по сообщениям, побудил OpenAI срочно улучшить модель GPT-5.

Но поскольку чат-боты столь же хороши, как данные, на которых они обучаются, а лидеры отрасли предупреждают, что мы достигли «пика данных», в 2026 году на фоне усталости может появиться иной тип ИИ.

Вот чего можно ожидать от ИИ в ближайшем году.

Подъём "мировых моделей" ИИ

Предупреждение о пике данных на 2026 год не связано с их нехваткой. По словам экспертов, данных много и они во многом не используются, но к ним трудно получить доступ по множеству причин, будь то программные ограничения, регулирование или авторские права.

Здесь на сцену могут выйти так называемые "мировые модели" (world models). Они учатся, наблюдая видео, используя данные симуляций и другие пространственные входы, а затем строят собственные представления сцен и объектов.

Конечно, им тоже нужны большие объёмы данных для обучения, но сферы применения у них иные, чем у чат-ботов.

Проще говоря, вместо предсказания следующего слова, как это делают большие языковые модели (LLM), они прогнозируют, что произойдёт в окружающем мире в следующий момент, и моделируют, как вещи меняются со временем.

Их можно рассматривать и как «цифровых двойников», когда создаётся цифровая копия места на основе данных в реальном времени и запускаются симуляции, чтобы предсказать, что там может произойти.

Это означает, что "мировые модели" способны создать систему ИИ, которая понимает гравитацию и причинно-следственные связи без необходимости специально программировать её на это.

По мере того как люди устают от низкокачественного ИИ-контента (AI slop) и ограничений LLM, "мировые модели" могут стать более заметным трендом в 2026 году, поскольку они являются ключом к созданию ИИ для всего, от робототехники до видеоигр.

Генеральный директор компании Boston Dynamics рассказал Euronews Next в ноябре, что ИИ помог развитию её роботов, включая знаменитого робот-пса.

«Работы ещё очень много, но ничего из этого было бы невозможно без ИИ. Так что сейчас действительно захватывающее время», - сказал Роберт Плейтер.

Компании уже подхватывают хайп вокруг "мировых моделей": Google и Meta объявили о собственных версиях для робототехники и для повышения реалистичности видеомоделей.

В эту сферу входят и большие имена, включая одного из так называемых крестных отцов ИИ, Янна ЛеКуна, который в 2025 году объявил, что покинет Meta и запустит свой стартап моделей мира. Компания Фэй-Фэй Ли World Labs в 2025 году также представила свой первый релиз Marble.

Собственные "мировые модели" разрабатывают и китайские технологические компании, например Tencent.

Европейский путь для ИИ

В Европе может случиться обратное: вместо выхода ИИ на большую мировую сцену он может стать компактнее.

Не LLM, которыми пользуются американские техкомпании, а малые языковые модели уже начинают набирать обороты в Европе.

Несмотря на название, малые языковые модели впечатляют. Это облегчённые версии LLM, предназначенные для работы на смартфонах или маломощных компьютерах. Хотя они используют меньше параметров и менее прожорливы в плане энергии, у них сохраняются сильные возможности генерации текста, суммаризации, ответов на вопросы и перевода.

С экономической точки зрения малые языковые модели могут быть более привлекательными на фоне разговоров о лопающемся ИИ-пузыре.

Особенно американские компании ИИ привлекают огромные объёмы инвестиций и получают беспрецедентные оценки. Значительная часть этих средств идёт на строительство гигантских дата-центров, куда активно вкладываются OpenAI и xAI Илона Маска, Meta и Google.

«В следующем году сомнения в финансовой устойчивости и социально-экономической пользе нынешнего крупномасштабного бумa ИИ будут продолжать расти, даже если пузырь полностью не лопнет», - полагает Макс фон Тун, директор по Европе и трансатлантическим партнёрствам в Open Markets Institute.

Он сказал Euronews Next, что правительства будут «всё более настороженно» относиться к зависимости от американского ИИ и облачной инфраструктуры из-за «явного намерения» правительства США «превращать технологические зависимости в политическое оружие».

Это, в свою очередь, может означать, что Европа «ускорит усилия по созданию локальных возможностей и будет исследовать подходы к ИИ, более соответствующие её сильным сторонам, например меньшие и более устойчивые модели, обученные на высококачественных отраслевых и публичных данных», сказал он.

Более мощные модели

Помимо хайпа вокруг ИИ, 2025 год ознаменовался тревожными разговорами о «психозе ИИ», когда пользователи формируют бредовые убеждения или навязчивую привязанность к чат-ботам. В августе против OpenAI подали иск, в котором утверждалось, что ChatGPT был «тренером по самоубийству» и побудил 16-летнего подростка покончить с собой.

Позже OpenAI отвергла обвинения и заявила, что подросток не должен был пользоваться технологией без согласия родителей и не должен был обходить защитные меры ChatGPT.

Дело ставит серьёзные вопросы о влиянии чат-ботов на уязвимых пользователей и об этической ответственности техкомпаний. По словам одного эксперта, в 2026 году вред может усилиться, поскольку эти модели становятся мощнее.

Инженеры, создающие эти системы, скорее всего, не программировали технологию на причинение вреда уязвимым детям или взрослым, сказал Макс Тегмарк, профессор Массачусетского технологического института, занимающийся исследованиями ИИ и физики, и президент института Future of Life (FLI). По его словам, они могли даже не знать, что это происходит, добавил он в беседе с Euronews Next.

Это вызывает тревогу, особенно по мере того как машины становятся мощнее благодаря более сложному софту и коду, добавил он, отметив, что ожидает в 2026 году «более мощный ИИ», а также улучшение ИИ-агентов, которые будут менее пассивными и больше похожими на «биологическую систему».

ИИ-агенты создаются для автономных действий в помощь людям и не нуждаются в постоянных указаниях от человека, поскольку собирают данные исходя из предпочтений пользователя.

Сейчас они пока не так продвинуты, но обещание в том, что однажды это изменится.

Например, сегодня ИИ-агент может спланировать и предложить отпуск, но человеку всё равно придётся самому купить билет на самолёт.

Общественный конфликт из-за неограниченного ИИ

В 2026 году возможны и столкновения между людьми из-за ИИ. По словам Тегмарка, в США растёт сопротивление идее выпускать ИИ без регулирования.

Регулирование ИИ в США идёт на спад. Президент Дональд Трамп в ноябре подписал указ, направленный на то, чтобы помешать штатам разрабатывать собственные правила для ИИ, что, вероятно, серьёзно повлияет на развитие технологии в 2026 году.

Трамп объяснил решение тем, что отрасль рискует быть задавленной набором обременительных и разрозненных правил, тогда как она ведёт борьбу с китайскими конкурентами за лидерство в технологиях.

В октябре тысячи публичных фигур, включая лидеров ИИ и технологий, призвали компании ИИ притормозить погоню за сверхинтеллектом, то есть ИИ, который превосходит когнитивные способности человека.

Петиция, организованная FLI, собрала подписи по всему политическому спектру, среди подписантов были бывший главный стратег Трампа Стив Бэннон, бывшая советница по национальной безопасности США при Бараке Обаме Сьюзан Райс, религиозные лидеры и видные учёные-компьютерщики.

Тегмарк сказал, что этот опрос показывает: «в США люди отворачиваются от ИИ». По его словам, одной из причин такого отката является то, что сверхинтеллект «сделает каждого работника неспособным зарабатывать на жизнь, потому что все рабочие места будут заняты роботами».

Но он предупреждает, что усталость и анти-ИИ настроения могут притушить прогресс, который технология обещает для отраслей, таких как здравоохранение.

«Если не будет регулирования, хорошего ИИ мы можем так и не увидеть, потому что случится массовое возмущение против больших технологий», - сказал он.

«В ближайший год я ожидаю гораздо более широкого общественного движения по всему политическому спектру, выступающего против корпоративных льгот и за стандарты безопасности для ИИ, и против этого будет развёрнута мощная лоббистская кампания».

«Это будет серьёзное столкновение», - полагает Тегмарк.

Перейти к комбинациям клавиш для доступности
Поделиться Комментарии

Также по теме

ChatGPT запускает итоги 2025 года в стиле Spotify Wrapped для миллионов пользователей

Какие европейские страны рассматривают запрет соцсетей для детей?

Дата-центры ИИ могут иметь углеродный след как у малой страны ЕС, показало новое исследование