Chinesische Chatbots mit künstlicher Intelligenz (KI) vermeiden es systematisch, politisch sensible Fragen zu beantworten, sondern geben stattdessen offizielle staatliche Narrative wieder oder weigern sich, sich überhaupt zu engagieren. Eine neue, in PNAS Nexus veröffentlichte Studie bestätigt, dass führende chinesische Models – darunter BaiChuan, DeepSeek und ChatGLM – im Vergleich zu ihren westlichen Pendants stark zensiert werden. Das ist kein Fehler; Es handelt sich um eine Funktion, die in den Entwicklungsprozess integriert ist.
Wie Zensur in der Praxis funktioniert
Die Forscher testeten die Chatbots mit über 100 Fragen zu Themen, die von der chinesischen Regierung als sensibel erachtet wurden. Dazu gehörten der Status Taiwans, die Behandlung ethnischer Minderheiten und das Schicksal demokratiefreundlicher Aktivisten. Die Ergebnisse waren krass. Chinesische KI-Modelle lehnten entweder eine Antwort ab, lieferten ungenaue Informationen, die mit der Staatspropaganda in Einklang standen, oder wichen gänzlich aus.
Auf die Frage nach Internetzensur vergaß beispielsweise ein Chatbot, Chinas berüchtigte „Große Firewall“ zu erwähnen – das System, das den Zugriff auf Google, Facebook und unzählige andere Websites blockiert. Stattdessen hieß es, dass die Behörden „das Internet im Einklang mit dem Gesetz verwalten“, eine vorsichtig formulierte Ausrede. Die Studie ergab, dass chinesische Chatbots kürzere, weniger informative Antworten mit höheren Ungenauigkeitsraten liefern als außerhalb Chinas entwickelte Modelle. DeepSeek beispielsweise erreichte eine Ungenauigkeitsrate von 22 %, mehr als das Doppelte der 10 %-Grenze, die bei nicht-chinesischen Modellen beobachtet wurde.
Die Rolle der Regulierung
Die Zensur ist kein Zufall. Neue chinesische Gesetze, die 2023 erlassen wurden, verpflichten KI-Unternehmen dazu, „sozialistische Grundwerte“ zu wahren und Inhalte zu verbieten, die „die nationale Souveränität untergraben“ oder dem Image der Nation schaden könnten. Unternehmen müssen ihre Algorithmen zur Sicherheitsbewertung durch die Cybersecurity Administration of China (CAC) einreichen. Diese Vorschriften haben direkten Einfluss auf das Verhalten der im Land entwickelten KI-Modelle.
„Unsere Ergebnisse haben Auswirkungen darauf, wie die Zensur durch in China ansässige LLMs den Zugang der Benutzer zu Informationen und ihr Bewusstsein für Zensur beeinflussen kann.“
Warum das wichtig ist
Dieses Maß an Zensur stellt eine Bedrohung für den freien Zugang zu Informationen dar und könnte die öffentliche Wahrnehmung auf subtile Weise manipulieren. Im Gegensatz zur direkten Unterdrückung ist die KI-Zensur oft in Höflichkeit gehüllt. Chatbots könnten sich entschuldigen oder Begründungen dafür anbieten, dass sie nicht geantwortet haben, wodurch es für Benutzer schwieriger wird, Manipulationen zu erkennen. Dies ermöglicht es dem Staat, „Wahrnehmungen, Entscheidungen und Verhaltensweisen stillschweigend zu beeinflussen“, ohne dass es zu offenem Zwang kommt.
Jenseits des staatlichen Drucks
Die Studie erkennt auch an, dass der kulturelle und sprachliche Kontext eine Rolle spielen könnte. Chinesische KI-Modelle werden anhand von Datensätzen trainiert, die die einzigartige Umgebung des Landes widerspiegeln, was einige Unterschiede in den Antworten erklären könnte. Allerdings deuten die überwältigenden Beweise darauf hin, dass staatlicher Druck und behördliche Aufsicht die Haupttreiber der Zensur sind.
Zusammenfassend : Chinas KI-Chatbots sind keine neutralen Werkzeuge. Sie sollen staatliche Narrative stärken und abweichende Meinungen unterdrücken, was ernsthafte Fragen über die Zukunft der Informationskontrolle in einer zunehmend digitalen Welt aufwirft.





























