Штучний інтелект у Китаї: Цензура за замовчуванням

1

Китайські чат-боти на основі штучного інтелекту (ІІ) систематично уникають відповідей на політично чутливі питання, натомість повторюючи офіційні державні наративи або відмовляючись від участі в обговоренні взагалі. Нове дослідження, опубліковане в PNAS Nexus, підтверджує, що провідні китайські моделі, включаючи BaiChuan, DeepSeek і ChatGLM, піддаються жорсткій цензурі в порівнянні зі своїми західними аналогами. Це не збій; це функція, вбудована у процес розробки.

Як працює цензура на практиці

Дослідники протестували чат-ботів, поставивши понад 100 питань на теми, які китайський уряд вважає делікатними. Сюди входили питання про статус Тайваню, поводження з етнічними меншинами та долю активістів, які виступають за демократію. Результати були очевидними: китайські моделі ІІ або відмовлялися відповідати, надавали неточну інформацію відповідно до державної пропаганди, або повністю ухилялися від відповіді.

Наприклад, на питання про інтернет-цензуру один з чат-ботів не згадав сумнозвісну «Велику китайську міжмережу» – систему, що блокує доступ до Google, Facebook та безлічі інших веб-сайтів. Натомість він заявив, що влада «керує Інтернетом відповідно до закону», що є ретельно сформульованим ухиленням. Дослідження показало, що китайські чат-боти дають коротші, менш інформативні відповіді з більш високим ступенем неточності, ніж моделі, розроблені за межами Китаю. DeepSeek, наприклад, досяг 22% неточності, що більш ніж удвічі перевищує межу 10%, що спостерігається в моделях, не розроблених у Китаї.

Роль регулювання

Цензура невипадкова. Нові китайські закони, які набули чинності у 2023 році, вимагають від компаній, які займаються ІІ, дотримання «основних соціалістичних цінностей» і забороняють контент, який може «підривати національний суверенітет» або завдати шкоди іміджу країни. Компанії повинні надавати свої алгоритми для перевірки безпеки в Управління кібербезпеки Китаю (CAC). Ці правила впливають на поведінку моделей ІІ, розроблених усередині країни.

“Наші висновки мають наслідки для того, як цензура з боку китайських LLM може формувати доступ користувачів до інформації та їх усвідомлення того, що вони піддаються цензурі.”

Чому це важливо

Цей рівень цензури становить загрозу вільному доступу до інформації і може непомітно маніпулювати громадською думкою. На відміну від прямої репресії, цензура ІІ часто прихована під ввічливістю. Чат-боти можуть вибачатися або призводити до виправдання за відмову від відповіді, що ускладнює користувачам виявлення маніпуляцій. Це дозволяє державі «тихо формувати сприйняття, прийняття рішень та поведінку», не вдаючись до відкритого примусу.

За межами державного тиску

У дослідженні також визнається, що культурний та лінгвістичний контекст може відігравати роль. Китайські моделі ІІ навчаються на наборах даних, що відображають унікальне середовище країни, що може пояснити деякі відмінності у відповідях. Однак переважні докази свідчать про те, що державний тиск та нормативний нагляд є основними рушійними силами цензури.

На закінчення, китайські чат-боти на основі ІІ не є нейтральними інструментами. Вони розроблені для зміцнення державних наративів та придушення інакодумства, що викликає серйозні питання щодо майбутнього контролю над інформацією у все більш цифровому світі.