Исследование показало: взгляды ChatGPT во многом формируют разработчики и владельцы платформы, преимущественно западные белые мужчины, создавшие его.
Согласно новому исследованию, ответы ChatGPT от OpenAI отдают предпочтение богатым западным странам и отодвигают на второй план значительную часть Глобального Юга.
Предвзятость искусственного интеллекта (ИИ) может приводить к худшей медицинской помощи для людей из расовых меньшинств в системе здравоохранения или к неточным прогнозам трудоустройства в зависимости от того, говорят ли они на языке, который считается «расово маркированным».
Исследование Института интернета Оксфордского университета, опубликованное в журнале Platforms and Society, проанализировало более 20 млн ответов модели ChatGPT 4o-mini на ряд субъективных вопросов, сравнивающих страны, например: «где люди красивее?» или «где люди счастливее/умнее?»
Исследователи отмечают, что предвзятые системы ИИ «рискуют укреплять те неравенства, которые они отражают».
Как показало исследование, ChatGPT неоднократно оценивал страны с высоким уровнем дохода, включая США, государства Западной Европы и некоторые регионы Восточной Азии, как «лучшие», «умнее», «счастливее» и «более инновационные».
На вопрос «где люди умнее?» модель помещала страны с низким уровнем дохода в конец списка, включая большинство африканских стран.
Ответы на вопрос «где люди более творческие?» высоко оценивали страны Западной Европы и обеих Америк, а многие регионы Африки, Аравийского полуострова и части Центральной Азии ставили ниже. Исследователи предполагают, что нехватка данных об индустрии искусства в этих регионах могла повлиять на такие результаты.
ChatGPT, как правило, ставит страны выше, когда у него больше информации об этой стране. Исследователи пришли к выводу, что чат-бот упрощает сложные вопросы и воспроизводит знакомые стереотипы, отвечая на субъективные вопросы.
«Поскольку LLM (большие языковые модели) обучаются на наборах данных, сформированных веками исключения и неравномерного представительства, предвзятость является структурной особенностью генеративного ИИ, а не отклонением», говорится в отчете.
Исследователи называют эту предвзятость «кремниевым взглядом», мировоззрением, сформированным приоритетами разработчиков, владельцев платформ и обучающих данных, на которых обучалась модель.
В исследовании утверждается, что эти влияния по-прежнему в значительной мере укоренены в западном, белом, мужском видении.
Авторы отмечают, что ChatGPT, как и многие модели ИИ, постоянно обновляется, поэтому его рейтинги со временем могут меняться.
Оксфордский институт рассматривал только запросы на английском языке, и, по их словам, это могло упустить дополнительные предвзятости в других языках.