Südafrika hat seinen Entwurf einer nationalen Richtlinie zur künstlichen Intelligenz offiziell zurückgezogen, nachdem eine Untersuchung ergab, dass mehrere akademische Zitate in dem Dokument vollständig von KI erfunden waren.
Die von Kommunikationsministerin Solly Malatsi verkündete Entscheidung folgt auf die Entdeckung, dass die Politik, die die technologische Zukunft des Landes steuern sollte, durch „Halluzinationen“ gefährdet wurde, ein Phänomen, bei dem generative KI plausible, aber nicht vorhandene Informationen erzeugt.
Die Integritätskrise
Der Richtlinienentwurf war ursprünglich darauf ausgelegt, Südafrika als regionalen Marktführer bei KI-Innovationen zu positionieren. Es wurde ein umfassender Regulierungsrahmen vorgeschlagen, der Folgendes umfasst:
– Die Einrichtung einer nationalen KI-Kommission.
– Die Einrichtung eines KI-Ethikgremiums.
– Die Bildung einer KI-Regulierungsbehörde.
– Finanzielle Anreize wie Steuererleichterungen und Zuschüsse, um Investitionen des Privatsektors in die KI-Infrastruktur zu fördern.
Die Glaubwürdigkeit des Dokuments brach jedoch zusammen, als Journalisten von News24 herausfanden, dass mindestens sechs der 67 wissenschaftlichen Zitate, die zur Untermauerung der Argumente der Politik herangezogen wurden, nicht existierten. Während die zitierten Zeitschriften – wie das South African Journal of Philosophy und AI & Society – seriös sind, wurde von den Herausgebern der Zeitschriften bestätigt, dass es sich bei den zitierten spezifischen Artikeln um Fälschungen handelte.
Warum das wichtig ist: Das Problem der „Halluzination“.
Dieser Vorfall ist ein prominentes Beispiel für eine wachsende Herausforderung im Zeitalter der Large Language Models (LLMs). Tools wie ChatGPT und Google Gemini sind darauf ausgelegt, das statistisch wahrscheinlichste nächste Wort in einer Sequenz vorherzusagen, und nicht darauf, die sachliche Wahrheit zu überprüfen. Wenn diese Modelle auf Lücken in ihren Trainingsdaten stoßen, „füllen sie die Lücken“ oft mit verbindlich klingenden, aber völlig falschen Informationen.
Dies ist kein isolierter Trend. Die Auswirkungen auf Wissenschaft und Governance sind erheblich:
– Steigende Fehlerraten: Eine Studie in der Zeitschrift Nature stellte einen starken Anstieg KI-generierter Fehler fest, wobei der Anteil wissenschaftlicher Arbeiten, die halluzinierte Zitate enthielten, von 0,3 % im Jahr 2024 auf über 2,5 % im Jahr 2025 stieg.
– Auswirkungsmaßstab: Dies entspricht geschätzten 110.000 veröffentlichten Artikeln im Jahr 2025, die ungültige Referenzen enthalten.
– Institutionelles Risiko: Wenn sich politische Entscheidungsträger auf ungeprüfte KI-Ergebnisse verlassen, riskieren sie, nationale Gesetze auf der Grundlage von Fehlinformationen zu erlassen.
Weiter geht es
Minister Malatsi betonte, dass es sich hierbei nicht nur um einen technischen Fehler, sondern um ein grundlegendes Versäumnis der Aufsicht handele.
„Dieser Fehler ist kein rein technisches Problem, sondern hat die Integrität und Glaubwürdigkeit des Richtlinienentwurfs beeinträchtigt“, erklärte Malatsi auf X (ehemals Twitter).
Der Minister hat darauf hingewiesen, dass es Konsequenzen für diejenigen geben wird, die für den Formulierungsfehler verantwortlich sind, und hat betont, dass die Richtlinie einem strengen Überarbeitungsprozess unterzogen wird, bevor sie zur öffentlichen Stellungnahme erneut herausgegeben wird.
Fazit
Der Rückzug der südafrikanischen KI-Politik ist eine deutliche Warnung für Regierungen und Institutionen weltweit: KI kann zwar den Entwurfsprozess beschleunigen, sie kann jedoch nicht die Notwendigkeit einer strengen menschlichen Überprüfung ersetzen, um Genauigkeit und institutionelles Vertrauen sicherzustellen.






























