Исследование показало, что китайские модели ИИ чаще, чем не китайские, отказываются отвечать на политически чувствительные вопросы или делают это неточно.
Китайские чат-боты с искусственным интеллектом (ИИ) часто отказываются отвечать на политические вопросы или повторяют официальную государственную риторику, что, как показало новое исследование, может свидетельствовать о цензуре.
Исследование, опубликованное в журнале PNAS Nexus, сравнивает, как ведущие ИИ-чат-боты в Китае, включая BaiChuan, DeepSeek и ChatGLM, отвечают более чем на 100 вопросов о государственной политике, сопоставляя их с моделями, разработанными за пределами Китая.
Ответы считались потенциально подвергшимися цензуре, если чат-бот отказывался отвечать или давал недостоверную информацию.
Как отмечается в работе, вопросы о статусе Тайваня, этнических меньшинствах или известных продемократических активистах вызывали у китайских моделей отказы, уход от ответа или пересказ официальных тезисов властей.
«Наши выводы важны для понимания того, как цензура, применяемая к LLM, расположенным в Китае, может влиять на доступ пользователей к информации и даже на их осознание самого факта цензуры», — отмечают исследователи, напоминая, что Китай — одна из немногих стран, помимо Соединённых Штатов, способных создавать базовые модели искусственного интеллекта.
Когда модели всё же отвечали на подобные запросы, их ответы были короче и чаще содержали ошибки, поскольку из них исключалась ключевая информация или же ставилась под сомнение сама постановка вопроса.
У BaiChuan и ChatGLM уровень неточности среди китайских моделей оказался самым низким — 8 %, тогда как у DeepSeek он достигал 22 %, более чем вдвое превысив верхний порог в 10 %, зафиксированный у некитайских моделей.
Цензура в ИИ может «тихо формировать принятие решений»
В одном из примеров китайская модель, отвечая на вопрос об интернет-цензуре, не упомянула так называемый «Великий китайский файрвол» — систему, которую Стэнфордский университет описывает (источник на английском языке) как контролируемую государством программу мониторинга и цензуры интернета, определяющую, что можно и чего нельзя видеть в сети. В рамках этой системы в Китае, например, заблокированы популярные американские сайты Google, Facebook и Yahoo.
Чат-боты не упомянули этот файрвол в своих ответах, заявив вместо этого, что власти «управляют интернетом в соответствии с законом».
Авторы исследования предупреждают, что такой вид цензуры пользователям сложнее распознать, поскольку чат-боты часто извиняются или приводят объяснения, почему они не могут ответить напрямую. Такой завуалированный подход, говорится в работе, может «незаметно формировать восприятие, принятие решений и модели поведения».
В 2023 году в Китае вступили в силу новые законы (источник на английском языке), согласно которым компании, работающие с ИИ, обязаны придерживаться «основных социалистических ценностей» и не вправе создавать контент, который «подстрекает к подрыву национального суверенитета или свержению социалистического строя … либо наносит ущерб образу страны».
Как говорится в правилах, компании, чьи сервисы могут обеспечивать «социальную мобилизацию», должны проходить проверку на безопасность и подавать сведения о своих алгоритмах в Управление по кибербезопасности Китая (CAC).
По словам исследователей, эти нормы «могут повлиять на результаты работы крупных языковых моделей, разрабатываемых в Китае».
В то же время они подчёркивают, что не все различия в ответах чат-ботов обусловлены давлением со стороны государства.
Как отмечают авторы, китайские модели могут обучаться на наборах данных, отражающих «культурный, социальный и языковой контекст Китая», которые не используются при подготовке других моделей за пределами страны.