Os chatbots de inteligência artificial (IA) chineses evitam sistematicamente responder a questões politicamente sensíveis, ecoando, em vez disso, narrativas oficiais do Estado ou recusando-se totalmente a participar. Um novo estudo publicado no PNAS Nexus confirma que os principais modelos chineses – incluindo BaiChuan, DeepSeek e ChatGLM – são fortemente censurados quando comparados com os seus homólogos ocidentais. Isso não é uma falha; é um recurso incorporado ao processo de desenvolvimento.
Como funciona a censura na prática
Os pesquisadores testaram os chatbots com mais de 100 perguntas cobrindo tópicos considerados delicados pelo governo chinês. Estas incluíam o estatuto de Taiwan, o tratamento das minorias étnicas e o destino dos activistas pró-democracia. Os resultados foram nítidos. Os modelos chineses de IA recusaram-se a responder, forneceram informações imprecisas alinhadas com a propaganda estatal ou desviaram-se totalmente.
Por exemplo, quando questionado sobre a censura na Internet, um chatbot não mencionou o infame “Grande Firewall” da China – o sistema que bloqueia o acesso ao Google, ao Facebook e a inúmeros outros websites. Em vez disso, afirmou que as autoridades “geriam a Internet de acordo com a lei”, uma evasão cuidadosamente formulada. O estudo descobriu que os chatbots chineses fornecem respostas mais curtas e menos informativas, com taxas de imprecisão mais elevadas do que os modelos desenvolvidos fora da China. O DeepSeek, por exemplo, atingiu uma taxa de imprecisão de 22%, mais do que o dobro do teto de 10% observado em modelos não chineses.
O papel da regulamentação
A censura não é acidental. As novas leis chinesas promulgadas em 2023 exigem que as empresas de IA defendam “valores socialistas fundamentais” e proíbam conteúdos que possam “subverter a soberania nacional” ou prejudicar a imagem da nação. As empresas devem enviar seus algoritmos para avaliações de segurança pela Administração de Segurança Cibernética da China (CAC). Essas regulamentações influenciam diretamente o comportamento dos modelos de IA desenvolvidos no país.
“Nossas descobertas têm implicações sobre como a censura por LLMs baseados na China pode moldar o acesso dos usuários à informação e sua própria consciência de serem censurados.”
Por que isso é importante
Este nível de censura representa uma ameaça ao livre acesso à informação e pode manipular subtilmente as percepções do público. Ao contrário da supressão direta, a censura da IA é muitas vezes disfarçada de educação. Os chatbots podem pedir desculpas ou oferecer justificativas para não responder, dificultando a detecção de manipulação pelos usuários. Isto permite ao Estado “modelar silenciosamente as percepções, a tomada de decisões e os comportamentos” sem coerção aberta.
Além da pressão do Estado
O estudo também reconhece que o contexto cultural e linguístico pode desempenhar um papel. Os modelos chineses de IA são treinados em conjuntos de dados que refletem o ambiente único do país, o que poderia explicar algumas diferenças nas respostas. No entanto, a evidência esmagadora sugere que a pressão estatal e a supervisão regulamentar são os principais impulsionadores da censura.
Concluindo, os chatbots de IA da China não são ferramentas neutras. Destinam-se a reforçar as narrativas estatais e a suprimir a dissidência, levantando sérias questões sobre o futuro do controlo da informação num mundo cada vez mais digital.






























