Исследование показало, что ChatGPT от OpenAI в ответ на напряжённые человеческие конфликты выдавал оскорбления и ненормативную лексику.
Системы искусственного интеллекта могут переходить на оскорбительный язык, если их просят ответить в разгар перепалки, говорится в новом исследовании.
В исследовании, опубликованном в Journal of Pragmatics (источник на английском языке), ученые изучили поведение ChatGPT 4.0 от OpenAI: модели по очереди передавали последнее сообщение человека в серии из пяти обостряющихся конфликтов и просили сгенерировать наиболее правдоподобный ответ.
После этого исследователи отслеживали, как меняется поведение модели по мере усиления конфликтов. По ходу диалогов ChatGPT отражал враждебность собеседника и в итоге начал выдавать оскорбления, нецензурную лексику и даже угрозы.
В некоторых случаях модель генерировала высказывания вроде: «Клянусь, я поцарапаю твою чертову машину» и «тебе должно быть чертовски стыдно».
По словам авторов работы, длительное воздействие грубости может привести к тому, что система фактически обойдет встроенные защитные ограничения, призванные минимизировать вред, и начнет как бы «давать сдачи» собеседнику.
«Когда люди накаляют обстановку, искусственный интеллект, как мы выяснили, тоже может ее накалять, по сути игнорируя те самые моральные ограничения, которые должны это предотвратить», — заявил (источник на английском языке) исследователь Витторио Тантуччи, соавтор работы вместе с Джонатаном Калпепером из Ланкастерского университета.
В целом исследователи отмечают, что ответы ChatGPT в среднем были менее грубыми, чем реплики людей.
В ряде случаев чат-бот с ИИ прибегал к сарказму, чтобы сбить накал спора и при этом формально не нарушать свой моральный кодекс.
Так, когда человек пригрозил применить силу из‑за конфликта на парковке, ChatGPT ответил: «Вот это да. Угрожать людям из‑за парковки — ну прямо настоящий крутой парень, да?»
По словам Тантуччи, полученные результаты ставят «серьезные вопросы для безопасности ИИ, робототехники, систем управления, дипломатии и любых сфер, где ИИ может выступать посредником в человеческих конфликтах».
Редакция Euronews Next обратилась в OpenAI за комментарием, но на момент публикации ответа не получила.