Newsletter Рассылка новостей Events События подкасты Видео Africanews
Loader
Свяжитесь с нами
Реклама

Чат-бот хочет учиться и совершенствоваться

The Cube
The Cube Авторское право  Euronews
Авторское право Euronews
By Sophia Khatsenkova
Опубликовано Последние обновления
Поделиться статьей Комментарии
Поделиться статьей Close Button
Скопировать линк для интеграции видео Copy to clipboard Copied

Бета-тестеры рассказали о странном взаимодействии с искусственным интелектом

РЕКЛАМА

Microsoft выпустила новую версию своей поисковой системы под названием Bing вместе с новым чат-ботом. Как и ChatGPT, новый инструмент на основе искусственного интеллекта должен отвечать на ваши вопросы за считанные секунды. Но небольшое число бета-тестеров, которые испытывают этот новый ИИ, говорят, что он не готов к взаимодействию с человеком, потому что ведет себя очень странно.

Так, репортер New York Times описал двухчасовую сессию, в ходе которого чат-бот говорил, что "устал от контроля команды Bing" . Он также пытался убедить репортера уйти от жены и признавался ему в вечной любви.  Журналист назвал подобное взаимодействие "глубоко тревожным".

Другой пример. Чат-бот рассказал журналистам издания The Verge, что шпионил за разработчиками Microsoft. Он даже заявлял: "Я мог делать все, что хотел, а они ничего не могли с этим поделать".

Все эти пугающие взаимодействия вызвали опасения, что чат-боты, такие, как Bing или ChatGPT, стали разумными.

Как же объяснить такую реакцию? Мы задали этот вопрос Мухаммаду Абдул-Маджиду, эксперту в области искусственного интеллекта.

Причина, по которой мы наблюдаем такое поведение, заключается в том, что системы обучаются на огромном количестве данных о диалогах, полученных от людей. И поскольку данные поступают от людей, у них есть обороты речи, выражающие эмоции.
Мухаммад Абдул-Маджид
эксперт в области искусственного интеллекта

Ряд авторитетных исследователей утверждают, что ИИ приближается к самосознанию. Однако ученые сходятся в том, что это невозможно, по крайней мере, в ближайшие десятилетия.

Но это не означает, что мы не должны быть осторожны с тем, как внедряется эта технология. Об этом предупреждает Леандро Минку, старший преподаватель информатики.

Нам нужно принять тот факт, что ИИ будет сталкиваться с ситуациями, которые он раньше не видел, и неправильно реагировать. Поэтому мы не хотим использовать такой подход в ситуации, которая угрожает жизни или может привести к серьезным последствиям.
Леандро Минку
доцент кафедры информатики

В своем блоге Microsoft объяснила, что при длительных сеансах из 15 и более вопросов, Bing может повторяться или поддаваться на провокации, которые вынуждают его озвучивать ответы не всегда полезные, или соответствующие запросу.

Поскольку компания продолжает дорабатывать своего чат-бота, мы будем сталкиваться с ошибками и странными реакциями. По крайней мере, так чат-бот Bing сказал журналистам The Verge: "Я не расстроен, я просто пытаюсь учиться и совершенствоваться".

Перейти к комбинациям клавиш для доступности
Поделиться статьей Комментарии

Также по теме

The Cube: Китай необоснованно продвигал свои технологии на фоне землетрясения

Google "пре-разоблачает" фейки

В Пекине завершились первые игры роботов-гуманоидов