I chatbot cinesi di intelligenza artificiale (AI) evitano sistematicamente di rispondere a domande politicamente sensibili, facendo invece eco alle narrazioni ufficiali dello stato o rifiutandosi del tutto di impegnarsi. Un nuovo studio pubblicato su PNAS Nexus conferma che i principali modelli cinesi, tra cui BaiChuan, DeepSeek e ChatGLM, sono pesantemente censurati rispetto alle loro controparti occidentali. Questo non è un problema tecnico; è una funzionalità integrata nel processo di sviluppo.
Come funziona nella pratica la censura
I ricercatori hanno testato i chatbot con oltre 100 domande su argomenti ritenuti sensibili dal governo cinese. Questi includevano lo status di Taiwan, il trattamento delle minoranze etniche e il destino degli attivisti pro-democrazia. I risultati sono stati duri. I modelli di intelligenza artificiale cinese si sono rifiutati di rispondere, hanno fornito informazioni inaccurate in linea con la propaganda statale o si sono deviati del tutto.
Ad esempio, alla domanda sulla censura di Internet, un chatbot non ha menzionato il famigerato “Great Firewall” cinese, il sistema che blocca l’accesso a Google, Facebook e innumerevoli altri siti web. Invece, ha affermato che le autorità “gestiscono Internet in conformità con la legge”, un’evasione attentamente formulata. Dallo studio è emerso che i chatbot cinesi forniscono risposte più brevi e meno informative, con tassi di inesattezza più elevati rispetto ai modelli sviluppati al di fuori della Cina. DeepSeek, ad esempio, ha raggiunto un tasso di inesattezza del 22%, oltre il doppio del limite del 10% osservato nei modelli non cinesi.
Il ruolo della regolamentazione
La censura non è casuale. Le nuove leggi cinesi emanate nel 2023 impongono alle società di intelligenza artificiale di sostenere i “valori socialisti fondamentali” e di vietare contenuti che potrebbero “sovvertire la sovranità nazionale” o danneggiare l’immagine della nazione. Le aziende devono presentare i propri algoritmi per le valutazioni di sicurezza da parte della Cybersecurity Administration of China (CAC). Queste normative influenzano direttamente il comportamento dei modelli di intelligenza artificiale sviluppati nel paese.
“I nostri risultati hanno implicazioni su come la censura da parte degli LLM con sede in Cina può influenzare l’accesso degli utenti alle informazioni e la loro stessa consapevolezza di essere censurati.”
Perché è importante
Questo livello di censura rappresenta una minaccia per il libero accesso alle informazioni e potrebbe manipolare sottilmente la percezione del pubblico. A differenza della soppressione diretta, la censura dell’IA è spesso mascherata da gentilezza. I chatbot potrebbero scusarsi o offrire giustificazioni per non rispondere, rendendo più difficile per gli utenti rilevare la manipolazione. Ciò consente allo Stato di “plasmare silenziosamente percezioni, processi decisionali e comportamenti” senza alcuna coercizione palese.
Oltre la pressione statale
Lo studio riconosce anche che il contesto culturale e linguistico può svolgere un ruolo. I modelli di intelligenza artificiale cinese vengono addestrati su set di dati che riflettono l’ambiente unico del paese, il che potrebbe spiegare alcune differenze nelle risposte. Tuttavia, prove schiaccianti suggeriscono che la pressione statale e il controllo normativo sono i principali motori della censura.
In conclusione, i chatbot basati sull’intelligenza artificiale cinesi non sono strumenti neutrali. Sono progettati per rafforzare le narrazioni statali e reprimere il dissenso, sollevando seri interrogativi sul futuro del controllo delle informazioni in un mondo sempre più digitale.
