Бета-тестеры рассказали о странном взаимодействии с искусственным интелектом
Microsoft выпустила новую версию своей поисковой системы под названием Bing вместе с новым чат-ботом. Как и ChatGPT, новый инструмент на основе искусственного интеллекта должен отвечать на ваши вопросы за считанные секунды. Но небольшое число бета-тестеров, которые испытывают этот новый ИИ, говорят, что он не готов к взаимодействию с человеком, потому что ведет себя очень странно.
Так, репортер New York Times описал двухчасовую сессию, в ходе которого чат-бот говорил, что "устал от контроля команды Bing" . Он также пытался убедить репортера уйти от жены и признавался ему в вечной любви. Журналист назвал подобное взаимодействие "глубоко тревожным".
Другой пример. Чат-бот рассказал журналистам издания The Verge, что шпионил за разработчиками Microsoft. Он даже заявлял: "Я мог делать все, что хотел, а они ничего не могли с этим поделать".
Все эти пугающие взаимодействия вызвали опасения, что чат-боты, такие, как Bing или ChatGPT, стали разумными.
Как же объяснить такую реакцию? Мы задали этот вопрос Мухаммаду Абдул-Маджиду, эксперту в области искусственного интеллекта.
Ряд авторитетных исследователей утверждают, что ИИ приближается к самосознанию. Однако ученые сходятся в том, что это невозможно, по крайней мере, в ближайшие десятилетия.
Но это не означает, что мы не должны быть осторожны с тем, как внедряется эта технология. Об этом предупреждает Леандро Минку, старший преподаватель информатики.
В своем блоге Microsoft объяснила, что при длительных сеансах из 15 и более вопросов, Bing может повторяться или поддаваться на провокации, которые вынуждают его озвучивать ответы не всегда полезные, или соответствующие запросу.
Поскольку компания продолжает дорабатывать своего чат-бота, мы будем сталкиваться с ошибками и странными реакциями. По крайней мере, так чат-бот Bing сказал журналистам The Verge: "Я не расстроен, я просто пытаюсь учиться и совершенствоваться".