Chatbots con IA de China: censura por diseño

11

Los chatbots chinos de inteligencia artificial (IA) evitan sistemáticamente responder preguntas políticamente delicadas y, en cambio, se hacen eco de las narrativas oficiales del Estado o se niegan a participar por completo. Un nuevo estudio publicado en PNAS Nexus confirma que los principales modelos chinos (incluidos BaiChuan, DeepSeek y ChatGLM) están fuertemente censurados en comparación con sus homólogos occidentales. Esto no es un problema técnico; es una característica integrada en el proceso de desarrollo.

Cómo funciona la censura en la práctica

Los investigadores probaron los chatbots con más de 100 preguntas que cubrían temas considerados delicados por el gobierno chino. Entre ellos se encontraban el estatus de Taiwán, el trato dado a las minorías étnicas y el destino de los activistas prodemocracia. Los resultados fueron crudos. Los modelos de IA chinos se negaron a responder, proporcionaron información inexacta alineada con la propaganda estatal o se desviaron por completo.

Por ejemplo, cuando se le preguntó sobre la censura en Internet, un chatbot no mencionó el infame “Gran Cortafuegos” de China: el sistema que bloquea el acceso a Google, Facebook y muchos otros sitios web. En cambio, afirmó que las autoridades “administran Internet de acuerdo con la ley”, una evasión cuidadosamente redactada. El estudio encontró que los chatbots chinos brindan respuestas más breves y menos informativas con tasas de inexactitud más altas que los modelos desarrollados fuera de China. DeepSeek, por ejemplo, alcanzó una tasa de inexactitud del 22%, más del doble del límite del 10% observado en modelos no chinos.

El papel de la regulación

La censura no es accidental. Las nuevas leyes chinas promulgadas en 2023 exigen que las empresas de inteligencia artificial defiendan los “valores socialistas fundamentales” y prohíban el contenido que pueda “subvertir la soberanía nacional” o dañar la imagen de la nación. Las empresas deben enviar sus algoritmos para evaluaciones de seguridad por parte de la Administración de Ciberseguridad de China (CAC). Estas regulaciones influyen directamente en el comportamiento de los modelos de IA desarrollados dentro del país.

“Nuestros hallazgos tienen implicaciones sobre cómo la censura por parte de los LLM con sede en China puede moldear el acceso de los usuarios a la información y su conciencia de ser censurados”.

Por qué esto es importante

Este nivel de censura plantea una amenaza al libre acceso a la información y podría manipular sutilmente las percepciones públicas. A diferencia de la represión directa, la censura de la IA suele estar disfrazada de cortesía. Los chatbots pueden disculparse u ofrecer justificaciones por no responder, lo que dificulta que los usuarios detecten la manipulación. Esto permite al Estado “dar forma silenciosamente a las percepciones, la toma de decisiones y los comportamientos” sin coerción abierta.

Más allá de la presión estatal

El estudio también reconoce que el contexto cultural y lingüístico puede influir. Los modelos chinos de IA se entrenan con conjuntos de datos que reflejan el entorno único del país, lo que podría explicar algunas diferencias en las respuestas. Sin embargo, la abrumadora evidencia sugiere que la presión estatal y la supervisión regulatoria son los principales impulsores de la censura.

En conclusión, los chatbots de IA de China no son herramientas neutrales. Están diseñadas para reforzar las narrativas estatales y suprimir la disidencia, lo que plantea serias dudas sobre el futuro del control de la información en un mundo cada vez más digital.