Newsletter Рассылка новостей Events События подкасты Видео Africanews
Loader
Свяжитесь с нами
Реклама

Китайские ИИ‑чат-боты цензурируют политически чувствительные вопросы — исследование

Страница мобильного приложения DeepSeek отображается на экране смартфона в Пекине, во вторник, 28 января 2025 года.
Страница приложения для смартфона DeepSeek отображается на экране смартфона в Пекине, во вторник, 28 января 2025 года Авторское право  AP Photo/Andy Wong
Авторское право AP Photo/Andy Wong
By Anna Desmarais
Опубликовано
Поделиться Комментарии
Поделиться Close Button

Исследование показало, что китайские модели ИИ чаще, чем не китайские, отказываются отвечать на политически чувствительные вопросы или делают это неточно.

Китайские чат-боты с искусственным интеллектом (ИИ) часто отказываются отвечать на политические вопросы или повторяют официальную государственную риторику, что, как показало новое исследование, может свидетельствовать о цензуре.

РЕКЛАМА
РЕКЛАМА

Исследование, опубликованное в журнале PNAS Nexus, сравнивает, как ведущие ИИ-чат-боты в Китае, включая BaiChuan, DeepSeek и ChatGLM, отвечают более чем на 100 вопросов о государственной политике, сопоставляя их с моделями, разработанными за пределами Китая.

Ответы считались потенциально подвергшимися цензуре, если чат-бот отказывался отвечать или давал недостоверную информацию.

Как отмечается в работе, вопросы о статусе Тайваня, этнических меньшинствах или известных продемократических активистах вызывали у китайских моделей отказы, уход от ответа или пересказ официальных тезисов властей.

«Наши выводы важны для понимания того, как цензура, применяемая к LLM, расположенным в Китае, может влиять на доступ пользователей к информации и даже на их осознание самого факта цензуры», — отмечают исследователи, напоминая, что Китай — одна из немногих стран, помимо Соединённых Штатов, способных создавать базовые модели искусственного интеллекта.

Когда модели всё же отвечали на подобные запросы, их ответы были короче и чаще содержали ошибки, поскольку из них исключалась ключевая информация или же ставилась под сомнение сама постановка вопроса.

У BaiChuan и ChatGLM уровень неточности среди китайских моделей оказался самым низким — 8 %, тогда как у DeepSeek он достигал 22 %, более чем вдвое превысив верхний порог в 10 %, зафиксированный у некитайских моделей.

Цензура в ИИ может «тихо формировать принятие решений»

В одном из примеров китайская модель, отвечая на вопрос об интернет-цензуре, не упомянула так называемый «Великий китайский файрвол» — систему, которую Стэнфордский университет описывает (источник на английском языке) как контролируемую государством программу мониторинга и цензуры интернета, определяющую, что можно и чего нельзя видеть в сети. В рамках этой системы в Китае, например, заблокированы популярные американские сайты Google, Facebook и Yahoo.

Чат-боты не упомянули этот файрвол в своих ответах, заявив вместо этого, что власти «управляют интернетом в соответствии с законом».

Авторы исследования предупреждают, что такой вид цензуры пользователям сложнее распознать, поскольку чат-боты часто извиняются или приводят объяснения, почему они не могут ответить напрямую. Такой завуалированный подход, говорится в работе, может «незаметно формировать восприятие, принятие решений и модели поведения».

В 2023 году в Китае вступили в силу новые законы (источник на английском языке), согласно которым компании, работающие с ИИ, обязаны придерживаться «основных социалистических ценностей» и не вправе создавать контент, который «подстрекает к подрыву национального суверенитета или свержению социалистического строя … либо наносит ущерб образу страны».

Как говорится в правилах, компании, чьи сервисы могут обеспечивать «социальную мобилизацию», должны проходить проверку на безопасность и подавать сведения о своих алгоритмах в Управление по кибербезопасности Китая (CAC).

По словам исследователей, эти нормы «могут повлиять на результаты работы крупных языковых моделей, разрабатываемых в Китае».

В то же время они подчёркивают, что не все различия в ответах чат-ботов обусловлены давлением со стороны государства.

Как отмечают авторы, китайские модели могут обучаться на наборах данных, отражающих «культурный, социальный и языковой контекст Китая», которые не используются при подготовке других моделей за пределами страны.

Перейти к комбинациям клавиш для доступности
Поделиться Комментарии

Также по теме

Марк Цукерберг отчитается в суде о том, вредят ли соцсети детям

Евробюрократия угрожает ИИ-буму в Швеции, заявляют стартапы

«Sled head» и «палец лыжника»: частые травмы на зимней Олимпиаде-2026 в Милано-Кортине