Les chatbots chinois d’intelligence artificielle (IA) évitent systématiquement de répondre aux questions politiquement sensibles, faisant plutôt écho aux récits officiels de l’État ou refusant carrément de s’engager. Une nouvelle étude publiée dans PNAS Nexus confirme que les principaux modèles chinois – notamment BaiChuan, DeepSeek et ChatGLM – sont fortement censurés par rapport à leurs homologues occidentaux. Ce n’est pas un problème ; c’est une fonctionnalité intégrée au processus de développement.
Comment fonctionne la censure dans la pratique
Les chercheurs ont testé les chatbots avec plus de 100 questions couvrant des sujets jugés sensibles par le gouvernement chinois. Il s’agissait notamment du statut de Taiwan, du traitement réservé aux minorités ethniques et du sort des militants pro-démocratie. Les résultats ont été frappants. Les modèles d’IA chinois ont soit refusé de répondre, soit fourni des informations inexactes alignées sur la propagande d’État, soit complètement dévié.
Par exemple, interrogé sur la censure d’Internet, un chatbot a omis de mentionner le tristement célèbre « Grand Pare-feu » chinois – le système qui bloque l’accès à Google, Facebook et d’innombrables autres sites Web. Au lieu de cela, il a déclaré que les autorités « gèrent Internet conformément à la loi », une évasion soigneusement formulée. L’étude a révélé que les chatbots chinois fournissent des réponses plus courtes et moins informatives avec des taux d’inexactitude plus élevés que les modèles développés en dehors de la Chine. DeepSeek, par exemple, a atteint un taux d’inexactitude de 22 %, soit plus du double du plafond de 10 % observé dans les modèles non chinois.
Le rôle de la régulation
La censure n’est pas accidentelle. Les nouvelles lois chinoises promulguées en 2023 obligent les sociétés d’IA à respecter les « valeurs socialistes fondamentales » et à interdire les contenus susceptibles de « renverser la souveraineté nationale » ou de nuire à l’image de la nation. Les entreprises doivent soumettre leurs algorithmes à des évaluations de sécurité par la Cybersecurity Administration of China (CAC). Ces réglementations influencent directement le comportement des modèles d’IA développés dans le pays.
“Nos résultats ont des implications sur la manière dont la censure exercée par les LLM basés en Chine peut façonner l’accès des utilisateurs à l’information et leur conscience même d’être censuré.”
Pourquoi c’est important
Ce niveau de censure constitue une menace pour le libre accès à l’information et pourrait subtilement manipuler les perceptions du public. Contrairement à la suppression directe, la censure de l’IA se cache souvent sous le signe de la politesse. Les chatbots peuvent s’excuser ou proposer des justifications pour ne pas répondre, ce qui rend plus difficile pour les utilisateurs de détecter une manipulation. Cela permet à l’État de « façonner discrètement les perceptions, les prises de décision et les comportements » sans contrainte manifeste.
Au-delà de la pression de l’État
L’étude reconnaît également que le contexte culturel et linguistique peut jouer un rôle. Les modèles d’IA chinois sont formés sur des ensembles de données reflétant l’environnement unique du pays, ce qui pourrait expliquer certaines différences dans les réponses. Cependant, des preuves accablantes suggèrent que la pression de l’État et la surveillance réglementaire sont les principaux moteurs de la censure.
En conclusion, les chatbots IA chinois ne sont pas des outils neutres. Ils sont conçus pour renforcer les discours étatiques et réprimer la dissidence, soulevant de sérieuses questions sur l’avenir du contrôle de l’information dans un monde de plus en plus numérique.
