Sztuczna inteligencja w Chinach: domyślna cenzura

17

Chińskie chatboty oparte na sztucznej inteligencji (AI) systematycznie unikają odpowiedzi na pytania wrażliwe politycznie, zamiast tego powtarzają oficjalne narracje rządowe lub w ogóle odmawiają angażowania się w dyskusje. Nowe badanie opublikowane w PNAS Nexus potwierdza, że ​​czołowe chińskie modele, w tym BaiChuan, DeepSeek i ChatGLM, są poddawane silnej cenzurze w porównaniu z ich zachodnimi odpowiednikami. To nie jest usterka; jest to funkcja wbudowana w proces programowania.

Jak cenzura działa w praktyce

Badacze przetestowali chatboty, zadając ponad 100 pytań na tematy uważane przez chiński rząd za drażliwe. Wśród nich znalazły się pytania o status Tajwanu, traktowanie mniejszości etnicznych i los działaczy prodemokratycznych. Wyniki były jasne: chińskie modele sztucznej inteligencji albo odmówiły odpowiedzi, podały niedokładne informacje zgodnie z propagandą rządową, albo całkowicie unikały odpowiedzi.

Przykładowo, zapytany o cenzurę Internetu, jeden z chatbotów nie wspomniał o cieszącym się złą sławą Wielkim Internecie Chin, systemie blokującym dostęp do Google, Facebooka i niezliczonej liczby innych stron internetowych. Zamiast tego powiedział, że władze „rządzą Internetem zgodnie z prawem”, co jest starannie sformułowanym unikiem. Badanie wykazało, że chińskie chatboty generowały krótsze, mniej treściwe odpowiedzi i charakteryzowały się większym stopniem niedokładności niż modele opracowane poza Chinami. Na przykład DeepSeek osiągnął 22% niedokładności, ponad dwukrotnie więcej niż 10% limit obserwowany w modelach, które nie zostały opracowane w Chinach.

Rola regulacji

Cenzura nie jest przypadkowa. Nowe chińskie przepisy, które wejdą w życie w 2023 r., nakładają na firmy zajmujące się sztuczną inteligencją obowiązek przestrzegania „podstawowych wartości socjalistycznych” i zakazywania treści, które mogłyby „podważyć suwerenność narodową” lub zaszkodzić wizerunkowi kraju. Firmy muszą przesłać swoje algorytmy do przeglądu bezpieczeństwa Chińskiej Administracji Cyberbezpieczeństwa (CAC). Zasady te bezpośrednio wpływają na zachowanie opracowanych w kraju modeli AI.

„Nasze ustalenia mają wpływ na to, jak cenzura stosowana przez chińskie firmy LLM może kształtować dostęp użytkowników do informacji i ich świadomość bycia cenzurowanym”.

Dlaczego to jest ważne?

Ten poziom cenzury stwarza zagrożenie dla swobodnego dostępu do informacji i może w subtelny sposób manipulować opinią publiczną. W przeciwieństwie do jawnych represji cenzura AI jest często maskowana pod przykrywką grzeczności. Chatboty mogą przepraszać lub usprawiedliwiać brak odpowiedzi, co utrudnia użytkownikom wykrycie manipulacji. Pozwala to państwu „po cichu kształtować sposób postrzegania, podejmowania decyzji i zachowań” bez uciekania się do jawnego przymusu.

Poza presją rządu

W badaniu przyznano również, że kontekst kulturowy i językowy może odgrywać pewną rolę. Chińskie modele sztucznej inteligencji są szkolone na zbiorach danych odzwierciedlających wyjątkowe środowisko kraju, co może wyjaśniać niektóre różnice w odpowiedziach. Jednak przytłaczające dowody sugerują, że głównymi czynnikami napędzającymi cenzurę są presja rządu i nadzór regulacyjny.

Podsumowując, chińskie chatboty AI nie są narzędziami neutralnymi. Mają na celu wzmocnienie narracji państwowych i tłumienie sprzeciwu, rodząc poważne pytania o przyszłość kontroli informacji w coraz bardziej cyfrowym świecie.