Umělá inteligence v Číně: Standardně cenzura

3

Čínští chatboti s umělou inteligencí (AI) se systematicky vyhýbají odpovědím na politicky citlivé otázky, místo toho opakují oficiální vládní narativy nebo se vůbec odmítají zapojit do diskusí. Nová studie zveřejněná v PNAS Nexus potvrzuje, že špičkové čínské modely včetně BaiChuan, DeepSeek a ChatGLM jsou ve srovnání s jejich západními protějšky silně cenzurovány. Toto není závada; toto je funkce zabudovaná do procesu vývoje.

Jak funguje cenzura v praxi

Výzkumníci testovali chatboty tím, že položili více než 100 otázek na témata, která čínská vláda považuje za citlivá. Jednalo se o otázky týkající se postavení Tchaj-wanu, zacházení s etnickými menšinami a osudu prodemokratických aktivistů. Výsledky byly jasné: čínské modely umělé inteligence buď odmítly odpovědět, poskytly nepřesné informace v souladu s vládní propagandou, nebo se odpovědi úplně vyhýbaly.

Když se například jeden z chatbotů zeptal na cenzuru internetu, nezmínil se o nechvalně známém Great Internet of China, systému, který blokuje přístup na Google, Facebook a nespočet dalších webů. Místo toho řekl, že úřady „řídí internet v souladu se zákonem“, což je pečlivě formulovaný únik. Studie zjistila, že čínští chatboti produkovali kratší, méně informativní odpovědi s vyšší mírou nepřesnosti než modely vyvinuté mimo Čínu. DeepSeek například dosáhl 22% nepřesnosti, což je více než dvojnásobek 10% limitu pozorovaného u modelů, které nebyly vyvinuty v Číně.

Role regulace

Cenzura není náhodná. Nové čínské zákony, které vstoupí v platnost v roce 2023, vyžadují, aby společnosti AI prosazovaly „základní socialistické hodnoty“ a zakazovaly obsah, který by mohl „podkopat národní suverenitu“ nebo poškodit image země. Společnosti musí předložit své algoritmy ke kontrole zabezpečení Čínské správě kybernetické bezpečnosti (CAC). Tato pravidla přímo ovlivňují chování doma vyvinutých modelů umělé inteligence.

“Naše zjištění mají důsledky pro to, jak může cenzura čínských LLM ovlivnit přístup uživatelů k informacím a jejich povědomí o cenzuře.”

Proč je to důležité?

Tato míra cenzury představuje hrozbu pro svobodný přístup k informacím a může nenápadně manipulovat veřejným míněním. Na rozdíl od přímé represe je cenzura umělé inteligence často maskována jako zdvořilost. Chatboti se mohou omlouvat nebo vymlouvat, že neodpovídají, což uživatelům ztěžuje odhalení manipulace. To státu umožňuje „v tichosti utvářet vnímání, rozhodování a chování“, aniž by se uchyloval k zjevnému nátlaku.

Mimo vládní tlak

Studie také uznává, že kulturní a jazykový kontext může hrát roli. Čínské modely umělé inteligence jsou trénovány na souborech dat, které odrážejí jedinečné prostředí země, což může vysvětlit některé rozdíly v odpovědích. Převážné důkazy však naznačují, že hlavními hybateli cenzury jsou vládní tlak a regulační dohled.

Na závěr, čínští chatboti AI nejsou neutrálními nástroji. Jsou navrženy tak, aby posílily státní narativy a potlačily nesouhlas, což vyvolává vážné otázky o budoucnosti kontroly informací ve stále digitálnějším světě.