Zuid-Afrika trekt nationaal AI-beleid in na door AI gegenereerde ‘hallucinaties’

14

Zuid-Afrika heeft zijn ontwerp voor een nationaal kunstmatige-intelligentiebeleid officieel ingetrokken nadat uit onderzoek bleek dat verschillende academische citaten in het document volledig door AI waren verzonnen.

Het besluit, aangekondigd door minister van Communicatie Solly Malatsi, volgt op de ontdekking dat het beleid – bedoeld om de technologische toekomst van het land te sturen – in gevaar werd gebracht door ‘hallucinaties’, een fenomeen waarbij generatieve AI plausibele maar niet-bestaande informatie creëert.

De integriteitscrisis

Het conceptbeleid was oorspronkelijk bedoeld om Zuid-Afrika te positioneren als regionale leider op het gebied van AI-innovatie. Het stelde een alomvattend regelgevingskader voor, waaronder:
– De oprichting van een nationale AI-commissie.
– De oprichting van een AI-ethiekraad.
– De oprichting van een AI-regelgevende autoriteit.
– Financiële prikkels, zoals belastingvoordelen en subsidies, om investeringen uit de particuliere sector in AI-infrastructuur aan te moedigen.

De geloofwaardigheid van het document stortte echter in toen journalisten van News24 ontdekten dat minstens zes van de 67 academische citaten die werden gebruikt om de argumenten van het beleid te ondersteunen, niet bestonden. Hoewel de tijdschriften waarnaar wordt verwezen – zoals de South African Journal of Philosophy en AI & Society – legitiem zijn, werd door de redacteuren van de tijdschriften bevestigd dat de specifieke aangehaalde artikelen verzinsels waren.

Waarom dit ertoe doet: het “hallucinatie”-probleem

Dit incident is een spraakmakend voorbeeld van een groeiende uitdaging in het tijdperk van grote taalmodellen (LLM’s). Tools zoals ChatGPT en Google Gemini zijn ontworpen om het statistisch meest waarschijnlijke volgende woord in een reeks te voorspellen, niet om de feitelijke waarheid te verifiëren. Wanneer deze modellen hiaten in hun trainingsgegevens tegenkomen, vullen ze vaak de lege plekken in met gezaghebbend klinkende maar volledig valse informatie.

Dit is geen geïsoleerde trend. De implicaties voor de academische wereld en het bestuur zijn aanzienlijk:
Toenemende foutenpercentages: Een onderzoek in het tijdschrift Nature constateerde een scherpe toename van door AI gegenereerde fouten, waarbij het percentage academische artikelen met gehallucineerde citaten steeg van 0,3% in 2024 naar meer dan 2,5% in 2025.
Scale of Impact: Dit vertaalt zich naar een geschatte 110.000 artikelen gepubliceerd in 2025 die ongeldige referenties bevatten.
Institutioneel risico: Wanneer beleidsmakers vertrouwen op niet-geverifieerde AI-resultaten, lopen ze het risico nationale wetten op te bouwen op basis van verkeerde informatie.

Vooruit

Minister Malatsi benadrukte dat dit niet slechts een technisch probleem was, maar een fundamenteel falen van het toezicht.

“Deze mislukking is niet louter een technisch probleem, maar heeft de integriteit en geloofwaardigheid van het conceptbeleid in gevaar gebracht”, aldus Malatsi op X (voorheen Twitter).

De minister heeft aangegeven dat er gevolgen zullen zijn voor degenen die verantwoordelijk zijn voor de formuleringsfout en heeft benadrukt dat het beleid een rigoureus herzieningsproces zal ondergaan voordat het opnieuw voor publiek commentaar wordt uitgegeven.

Conclusie

De intrekking van het Zuid-Afrikaanse AI-beleid dient als een krachtige waarschuwing voor regeringen en instellingen over de hele wereld: hoewel AI het ontwerpproces kan versnellen, kan het de noodzaak van rigoureuze menselijke verificatie om nauwkeurigheid en institutioneel vertrouwen te garanderen niet vervangen.