Il Sudafrica ha ufficialmente ritirato la sua bozza di politica nazionale sull’intelligenza artificiale dopo che un’indagine ha rivelato che diverse citazioni accademiche all’interno del documento erano state interamente fabbricate dall’intelligenza artificiale.
La decisione, annunciata dal ministro delle Comunicazioni Solly Malatsi, fa seguito alla scoperta che la politica – intesa a guidare il futuro tecnologico della nazione – è stata compromessa da “allucinazioni”, un fenomeno in cui l’intelligenza artificiale generativa crea informazioni plausibili ma inesistenti.
La crisi di integrità
Il progetto di politica era stato originariamente concepito per posizionare il Sudafrica come leader regionale nell’innovazione dell’intelligenza artificiale. Ha proposto un quadro normativo completo, che comprende:
– L’istituzione di una commissione nazionale sull’IA.
– La creazione di un comitato etico sull’IA.
– La formazione di un’autorità di regolamentazione dell’IA.
– Incentivi finanziari, come agevolazioni fiscali e sovvenzioni, per incoraggiare gli investimenti del settore privato nelle infrastrutture di intelligenza artificiale.
Tuttavia, la credibilità del documento è crollata quando i giornalisti di News24 hanno scoperto che almeno sei delle 67 citazioni accademiche utilizzate per sostenere le argomentazioni della politica non esistevano. Sebbene le riviste citate, come South African Journal of Philosophy e AI & Society, siano legittime, è stato confermato che gli articoli specifici citati sono invenzioni da parte dei redattori delle riviste.
Perché è importante: il problema delle “allucinazioni”.
Questo incidente è un esempio di alto profilo di una sfida crescente nell’era dei Large Language Models (LLM). Strumenti come ChatGPT e Google Gemini sono progettati per prevedere la parola successiva più statisticamente probabile in una sequenza, non per verificare la verità fattuale. Quando questi modelli riscontrano lacune nei dati di addestramento, spesso “riempiono gli spazi vuoti” con informazioni apparentemente autorevoli ma del tutto false.
Questa non è una tendenza isolata. Le implicazioni per il mondo accademico e la governance sono significative:
– Tassi di errore in aumento: Uno studio pubblicato sulla rivista Nature ha rilevato un forte aumento degli errori generati dall’intelligenza artificiale, con la percentuale di documenti accademici contenenti citazioni allucinanti che è passato dallo 0,3% nel 2024 a oltre il 2,5% nel 2025.
– Scala di impatto: ciò si traduce in circa 110.000 articoli pubblicati nel 2025 contenenti riferimenti non validi.
– Rischio istituzionale: quando i politici si affidano a risultati dell’intelligenza artificiale non verificati, rischiano di costruire leggi nazionali su basi di disinformazione.
Andare avanti
Il ministro Malatsi ha sottolineato che non si è trattato semplicemente di un problema tecnico, ma di un fondamentale fallimento della supervisione.
“Questo fallimento non è una mera questione tecnica ma ha compromesso l’integrità e la credibilità del progetto di politica”, ha dichiarato Malatsi su X (ex Twitter).
Il Ministro ha indicato che ci saranno conseguenze per i responsabili dell’errore redazionale e ha sottolineato che la politica sarà sottoposta a un rigoroso processo di revisione prima di essere ripubblicata per il commento del pubblico.
Conclusione
Il ritiro della politica sull’intelligenza artificiale del Sudafrica funge da forte avvertimento per i governi e le istituzioni di tutto il mondo: sebbene l’intelligenza artificiale possa accelerare il processo di elaborazione, non può sostituire la necessità di una rigorosa verifica umana per garantire l’accuratezza e la fiducia istituzionale.
