Китайские чат-боты на основе искусственного интеллекта (ИИ) систематически избегают ответов на политически чувствительные вопросы, вместо этого повторяя официальные государственные нарративы или отказываясь от участия в обсуждении вообще. Новое исследование, опубликованное в PNAS Nexus, подтверждает, что ведущие китайские модели, включая BaiChuan, DeepSeek и ChatGLM, подвергаются жесткой цензуре по сравнению со своими западными аналогами. Это не сбой; это функция, встроенная в процесс разработки.
Как работает цензура на практике
Исследователи протестировали чат-ботов, задав более 100 вопросов по темам, которые китайское правительство считает деликатными. Сюда входили вопросы о статусе Тайваня, обращении с этническими меньшинствами и судьбе активистов, выступающих за демократию. Результаты были очевидны: китайские модели ИИ либо отказывались отвечать, предоставляли неточную информацию в соответствии с государственной пропагандой, либо полностью уклонялись от ответа.
Например, на вопрос об интернет-цензуре один из чат-ботов не упомянул печально известную «Великую китайскую межсеть» – систему, блокирующую доступ к Google, Facebook и бесчисленному множеству других веб-сайтов. Вместо этого он заявил, что власти «управляют Интернетом в соответствии с законом», что является тщательно сформулированным уклонением. Исследование показало, что китайские чат-боты дают более короткие, менее информативные ответы с более высокой степенью неточности, чем модели, разработанные за пределами Китая. DeepSeek, например, достиг 22% неточности, что более чем в два раза превышает предел в 10%, наблюдаемый в моделях, не разработанных в Китае.
Роль регулирования
Цензура не случайна. Новые китайские законы, вступившие в силу в 2023 году, требуют от компаний, занимающихся ИИ, соблюдения «основных социалистических ценностей» и запрещают контент, который может «подрывать национальный суверенитет» или нанести ущерб имиджу страны. Компании должны предоставлять свои алгоритмы для проверки безопасности в Управление кибербезопасности Китая (CAC). Эти правила напрямую влияют на поведение моделей ИИ, разработанных внутри страны.
«Наши выводы имеют последствия для того, как цензура со стороны китайских LLM может формировать доступ пользователей к информации и их осознание того, что они подвергаются цензуре.»
Почему это важно
Этот уровень цензуры представляет угрозу для свободного доступа к информации и может незаметно манипулировать общественным мнением. В отличие от прямой репрессии, цензура ИИ часто скрыта под вежливостью. Чат-боты могут извиняться или приводить оправдания за отказ от ответа, что затрудняет пользователям обнаружение манипуляций. Это позволяет государству «тихо формировать восприятие, принятие решений и поведение», не прибегая к открытому принуждению.
За пределами государственного давления
В исследовании также признается, что культурный и лингвистический контекст может играть роль. Китайские модели ИИ обучаются на наборах данных, отражающих уникальную среду страны, что может объяснить некоторые различия в ответах. Однако подавляющие доказательства свидетельствуют о том, что государственное давление и нормативный надзор являются основными движущими силами цензуры.
В заключение, китайские чат-боты на основе ИИ не являются нейтральными инструментами. Они разработаны для укрепления государственных нарративов и подавления инакомыслия, что вызывает серьезные вопросы о будущем контроля над информацией в все более цифровом мире.
