L’Afrique du Sud retire sa politique nationale en matière d’IA suite aux « hallucinations » générées par l’IA

3

L’Afrique du Sud a officiellement retiré son projet de politique nationale en matière d’intelligence artificielle après qu’une enquête a révélé que plusieurs citations universitaires contenues dans le document avaient été entièrement fabriquées par AI.

La décision, annoncée par le ministre des Communications Solly Malatsi, fait suite à la découverte que la politique – destinée à guider l’avenir technologique du pays – était compromise par des « hallucinations », un phénomène dans lequel l’IA générative crée des informations plausibles mais inexistantes.

La crise de l’intégrité

Le projet de politique visait à l’origine à positionner l’Afrique du Sud comme un leader régional en matière d’innovation en matière d’IA. Il propose un cadre réglementaire complet, comprenant :
– La mise en place d’une commission nationale IA.
– La création d’un conseil d’éthique de l’IA.
– La formation d’une autorité de régulation de l’IA.
– Des incitations financières, telles que des allégements fiscaux et subventions, pour encourager les investissements du secteur privé dans les infrastructures d’IA.

Cependant, la crédibilité du document s’est effondrée lorsque les journalistes de News24 ont découvert qu’au moins six des 67 citations universitaires utilisées pour étayer les arguments de cette politique n’existaient pas. Bien que les revues référencées, telles que le South African Journal of Philosophy et AI & Society, soient légitimes, les articles spécifiques cités ont été confirmés comme étant des fabrications de la part des éditeurs des revues.

Pourquoi c’est important : le problème des “hallucinations”

Cet incident est un exemple très médiatisé d’un défi croissant à l’ère des grands modèles linguistiques (LLM). Des outils tels que ChatGPT et Google Gemini sont conçus pour prédire le prochain mot statistiquement le plus probable dans une séquence, et non pour vérifier la vérité factuelle. Lorsque ces modèles rencontrent des lacunes dans leurs données de formation, ils « comblent souvent les blancs » avec des informations faisant autorité mais entièrement fausses.

Il ne s’agit pas d’une tendance isolée. Les implications pour le monde universitaire et la gouvernance sont importantes :
Taux d’erreur en hausse : Une étude de la revue Nature a noté une forte augmentation des erreurs générées par l’IA, le pourcentage d’articles universitaires contenant des citations hallucinées passant de 0,3 % en 2024 à plus de 2,5 % en 2025.
Échelle d’impact : Cela se traduit par environ 110 000 articles publiés en 2025 contenant des références invalides.
Risque institutionnel : Lorsque les décideurs politiques s’appuient sur des résultats non vérifiés de l’IA, ils risquent d’élaborer des lois nationales sur une base de désinformation.

Aller de l’avant

Le ministre Malatsi a souligné qu’il ne s’agissait pas simplement d’un problème technique mais d’un échec fondamental de la surveillance.

“Cet échec n’est pas un simple problème technique mais a compromis l’intégrité et la crédibilité du projet de politique”, a déclaré Malatsi sur X (anciennement Twitter).

Le ministre a indiqué qu’il y aurait des conséquences pour les responsables de l’erreur de rédaction et a souligné que la politique serait soumise à un processus de révision rigoureux avant d’être rééditée pour commentaires publics.

Conclusion

Le retrait de la politique sud-africaine en matière d’IA constitue un avertissement sévère pour les gouvernements et les institutions du monde entier : même si l’IA peut accélérer le processus de rédaction, elle ne peut pas remplacer la nécessité d’une vérification humaine rigoureuse pour garantir l’exactitude et la confiance institutionnelle.