Чат-бот хочет учиться и совершенствоваться

The Cube
The Cube Авторское право Euronews
By Sophia Khatsenkova
Поделиться статьейКомментарии
Поделиться статьейClose Button
Скопировать линк для интеграции видеоCopy to clipboardCopied

Бета-тестеры рассказали о странном взаимодействии с искусственным интелектом

РЕКЛАМА

Microsoft выпустила новую версию своей поисковой системы под названием Bing вместе с новым чат-ботом. Как и ChatGPT, новый инструмент на основе искусственного интеллекта должен отвечать на ваши вопросы за считанные секунды. Но небольшое число бета-тестеров, которые испытывают этот новый ИИ, говорят, что он не готов к взаимодействию с человеком, потому что ведет себя очень странно.

Так, репортер New York Times описал двухчасовую сессию, в ходе которого чат-бот говорил, что "устал от контроля команды Bing" . Он также пытался убедить репортера уйти от жены и признавался ему в вечной любви.  Журналист назвал подобное взаимодействие "глубоко тревожным".

Другой пример. Чат-бот рассказал журналистам издания The Verge, что шпионил за разработчиками Microsoft. Он даже заявлял: "Я мог делать все, что хотел, а они ничего не могли с этим поделать".

Все эти пугающие взаимодействия вызвали опасения, что чат-боты, такие, как Bing или ChatGPT, стали разумными.

Как же объяснить такую реакцию? Мы задали этот вопрос Мухаммаду Абдул-Маджиду, эксперту в области искусственного интеллекта.

Причина, по которой мы наблюдаем такое поведение, заключается в том, что системы обучаются на огромном количестве данных о диалогах, полученных от людей. И поскольку данные поступают от людей, у них есть обороты речи, выражающие эмоции.
Мухаммад Абдул-Маджид
эксперт в области искусственного интеллекта

Ряд авторитетных исследователей утверждают, что ИИ приближается к самосознанию. Однако ученые сходятся в том, что это невозможно, по крайней мере, в ближайшие десятилетия.

Но это не означает, что мы не должны быть осторожны с тем, как внедряется эта технология. Об этом предупреждает Леандро Минку, старший преподаватель информатики.

Нам нужно принять тот факт, что ИИ будет сталкиваться с ситуациями, которые он раньше не видел, и неправильно реагировать. Поэтому мы не хотим использовать такой подход в ситуации, которая угрожает жизни или может привести к серьезным последствиям.
Леандро Минку
доцент кафедры информатики

В своем блоге Microsoft объяснила, что при длительных сеансах из 15 и более вопросов, Bing может повторяться или поддаваться на провокации, которые вынуждают его озвучивать ответы не всегда полезные, или соответствующие запросу.

Поскольку компания продолжает дорабатывать своего чат-бота, мы будем сталкиваться с ошибками и странными реакциями. По крайней мере, так чат-бот Bing сказал журналистам The Verge: "Я не расстроен, я просто пытаюсь учиться и совершенствоваться".

Поделиться статьейКомментарии

Также по теме

The Cube: Китай необоснованно продвигал свои технологии на фоне землетрясения

Google "пре-разоблачает" фейки

Франция наращивает производство оружия для Украины