Chinese kunstmatige intelligentie (AI)-chatbots vermijden systematisch het beantwoorden van politiek gevoelige vragen, maar herhalen in plaats daarvan officiële staatsverhalen of weigeren helemaal mee te doen. Een nieuwe studie gepubliceerd in PNAS Nexus bevestigt dat toonaangevende Chinese modellen – waaronder BaiChuan, DeepSeek en ChatGLM – zwaar worden gecensureerd in vergelijking met hun westerse tegenhangers. Dit is geen storing; het is een functie die in het ontwikkelingsproces is ingebakken.
Hoe censuur in de praktijk werkt
Onderzoekers testten de chatbots met meer dan 100 vragen over onderwerpen die door de Chinese overheid als gevoelig worden beschouwd. Deze omvatten onder meer de status van Taiwan, de behandeling van etnische minderheden en het lot van pro-democratische activisten. De resultaten waren grimmig. Chinese AI-modellen weigerden te antwoorden, verstrekten onnauwkeurige informatie die in lijn was met staatspropaganda, of werden volledig afgewezen.
Toen hem bijvoorbeeld werd gevraagd naar internetcensuur, verzuimde een chatbot de beruchte ‘Grote Firewall’ van China te noemen – het systeem dat de toegang tot Google, Facebook en talloze andere websites blokkeert. In plaats daarvan werd gesteld dat de autoriteiten ‘het internet beheren in overeenstemming met de wet’, een zorgvuldig geformuleerde ontduiking. Uit het onderzoek bleek dat Chinese chatbots kortere, minder informatieve antwoorden geven met een hogere onnauwkeurigheid dan modellen die buiten China zijn ontwikkeld. DeepSeek bereikte bijvoorbeeld een onnauwkeurigheidspercentage van 22%, meer dan tweemaal het plafond van 10% dat wordt gezien in niet-Chinese modellen.
De rol van regelgeving
De censuur is niet toevallig. Nieuwe Chinese wetten die in 2023 zijn ingevoerd, vereisen dat AI-bedrijven ‘socialistische kernwaarden’ hooghouden en inhoud verbieden die ‘de nationale soevereiniteit zou kunnen ondermijnen’ of het imago van de natie zou kunnen schaden. Bedrijven moeten hun algoritmen indienen voor veiligheidsbeoordelingen door de Cybersecurity Administration of China (CAC). Deze regelgeving heeft rechtstreeks invloed op het gedrag van AI-modellen die in het land worden ontwikkeld.
“Onze bevindingen hebben implicaties voor de manier waarop censuur door in China gevestigde LLM’s de toegang van gebruikers tot informatie en hun besef van censuur kan beïnvloeden.”
Waarom dit belangrijk is
Dit niveau van censuur vormt een bedreiging voor de vrije toegang tot informatie en zou op subtiele wijze de publieke perceptie kunnen manipuleren. In tegenstelling tot directe onderdrukking gaat AI-censuur vaak gepaard met beleefdheid. Chatbots kunnen zich verontschuldigen of rechtvaardigingen bieden voor het niet antwoorden, waardoor het voor gebruikers moeilijker wordt om manipulatie te detecteren. Hierdoor kan de staat “in alle stilte vorm geven aan percepties, besluitvorming en gedrag” zonder openlijke dwang.
Voorbij de staatsdruk
De studie erkent ook dat de culturele en taalkundige context een rol kan spelen. Chinese AI-modellen zijn getraind op datasets die de unieke omgeving van het land weerspiegelen, wat enkele verschillen in reacties zou kunnen verklaren. Het overweldigende bewijsmateriaal suggereert echter dat staatsdruk en regelgevend toezicht de belangrijkste drijfveren van censuur zijn.
Samenvattend : de Chinese AI-chatbots zijn geen neutrale tools. Ze zijn bedoeld om staatsverhalen te versterken en afwijkende meningen te onderdrukken, waardoor serieuze vragen rijzen over de toekomst van informatiecontrole in een steeds digitalere wereld.
