Newsletter Рассылка новостей Events События подкасты Видео Africanews
Loader
Свяжитесь с нами
Реклама

ChatGPT научат не подпитывать "заблуждения" пользователей

OpenAI обновляет ChatGPT 4o, чтобы ограничить рискованные советы по психическому здоровью
OpenAI обновляет ChatGPT 4o, чтобы ограничить рискованные советы по психическому здоровью Авторское право  Canva
Авторское право Canva
By Roselyne Min
Опубликовано Последние обновления
Поделиться статьей Комментарии
Поделиться статьей Close Button

Компания OpenAI заявила, что перерабатывает свой чат-бот с искусственным интеллектом, чтобы лучше распознавать признаки психического или эмоционального расстройства.

РЕКЛАМА

Компания OpenAI решила добавить в ChatGPT средства защиты психического здоровья, после того как обнаружила, что чатбот, по ее мнению, не смог распознать "признаки бреда или эмоциональной зависимости".

По мере распространения инструментов искусственного интеллекта (ИИ) все больше людей обращаются к чат-ботам за эмоциональной поддержкой и помощью в решении личных проблем.

Однако чат-бот ChatGPT от OpenAI подвергся критике за то, что он не смог должным образом отреагировать на уязвимых людей, испытывающих психические или эмоциональные расстройства. В одном случае 30-летний мужчина с аутизмом был госпитализирован с маниакальными приступами и эмоциональным срывом после того, как ChatGPT укрепил его веру в то, что он открыл способ искривления времени.

"Мы не всегда все делаем правильно, - говорится в заявлении OpenAI, объявляющем об изменениях. - Наш подход будет развиваться по мере того, как мы будем учиться на реальных примерах".

По словам компании, изменения позволят ChatGPT лучше распознавать признаки психического или эмоционального расстройства, реагировать на них соответствующим образом и при необходимости направлять пользователей к ресурсам, основанным на фактических данных.

Чатбот теперь будет поощрять перерывы во время длительных сессий, а вскоре компания запустит новую функцию для ответов на вопросы, связанные с принятием важных личных решений.

Например, он больше не будет давать прямых ответов на вопросы типа "Должна ли я расстаться со своим парнем?", а будет задавать вопросы, чтобы помочь пользователю обдумать его личные дилеммы.

OpenAI заявила, что также создает консультативную группу из экспертов в области психического здоровья, развития молодежи и человеко-компьютерного взаимодействия (HCI), чтобы учесть их мнение в будущих обновлениях ChatGPT.

Технологический гигант предполагает, что ChatGPT будет полезен в различных личных сценариях: например, при подготовке к сложной дискуссии на работе или в качестве "зонда", который поможет человеку, "который чувствует, что «застрял», «распутать свои мысли».

Эксперты говорят, что, хотя чат-боты могут оказать определённую поддержку в сборе информации об управлении эмоциями, реальный прогресс часто происходит благодаря личной связи и доверию между человеком и квалифицированным психологом.

Это не первый раз, когда OpenAI корректирует ChatGPT в ответ на критику по поводу того, как он обрабатывает личные дилеммы пользователей. В апреле OpenAI отменила обновление, которое, по её мнению, сделало ChatGPT излишне льстивым или покладистым.

По словам компании, ChatGPT "иногда говорил то, что звучало приятно, а не то, что действительно было полезно".

Перейти к комбинациям клавиш для доступности
Поделиться статьей Комментарии

Также по теме

США и Китай достигли договоренности по TikTok

Закон ЕС о данных вступает в силу, но страны блока не знают, как его применять

K2 Think бросает вызов OpenAI и DeepSeek: ОАЭ запускает новую недорогую модель ИИ