Republika Południowej Afryki oficjalnie wycofała swój projekt krajowej polityki w zakresie sztucznej inteligencji po tym, jak dochodzenie wykazało, że kilka cytatów akademickich zawartych w dokumencie zostało w całości sfabrykowanych przez sztuczną inteligencję.
Decyzja ogłoszona przez ministra komunikacji Solly’ego Malatziego została podjęta po odkryciu, że polityka mająca na celu kształtowanie technologicznej przyszłości kraju została zagrożona przez „halucynacje”. Jest to zjawisko, w którym generatywna sztuczna inteligencja tworzy wiarygodne, ale nieistniejące informacje.
Kryzys zaufania
Pierwotnie projekt polityki miał na celu ustanowienie Republiki Południowej Afryki regionalnym liderem innowacji w zakresie sztucznej inteligencji. Zaproponowała kompleksowe ramy regulacyjne, obejmujące:
– Utworzenie krajowej komisji ds. sztucznej inteligencji.
– Utworzenie Rady Etyki AI.
– Utworzenie organu regulacyjnego w dziedzinie AI.
– Zachęty finansowe, takie jak ulgi podatkowe i dotacje, aby zachęcić sektor prywatny do inwestowania w infrastrukturę sztucznej inteligencji.
Wiarygodność dokumentu została jednak podważona, gdy dziennikarze News24 odkryli, że co najmniej z 67 cytatów akademickich użytych do uzasadnienia tej polityki nie istniało w rzeczywistości. Chociaż wspomniane czasopisma, takie jak South African Journal of Philosophy i AI & Society, są legalne, redaktorzy tych publikacji potwierdzili, że cytowane artykuły są fikcyjne.
Dlaczego to ma znaczenie: problem „halucynacji”
Ten incydent jest głośnym przykładem narastającego problemu w erze modeli wielkojęzykowych (LLM). Narzędzia takie jak ChatGPT i Google Gemini służą do przewidywania najbardziej statystycznie prawdopodobnego następnego słowa w sekwencji, a nie do sprawdzania faktów. Kiedy modele te napotykają luki w danych uczących, często „wypełniają luki” informacjami, które brzmią wiarygodnie, ale są całkowicie fałszywe.
To nie jest odosobniony przypadek. Konsekwencje dla środowiska akademickiego i rządu są znaczące:
– Wzrost współczynnika błędów: Badanie opublikowane w czasopiśmie Nature odnotowało gwałtowny wzrost liczby błędów generowanych przez sztuczną inteligencję: odsetek artykułów naukowych zawierających „halucynacyjne” cytaty wzrósł z 0,3% w 2024 r. do ponad 2,5% w 2025 r..
– Zakres wpływu: Szacuje się, że w 2025 roku opublikowano około 110 000 artykułów zawierających nieprawidłowe cytaty.
– Ryzyko instytucjonalne: gdy decydenci polegają na nieprzetestowanych wynikach sztucznej inteligencji, ryzykują tworzeniem przepisów rządowych na podstawie dezinformacji.
Kolejne kroki
Minister Malatsi podkreślił, że nie jest to tylko awaria techniczna, ale fundamentalna awaria systemu kontroli.
„Ta porażka to nie tylko problem techniczny; podważyła ona integralność i wiarygodność projektu politycznego” – stwierdził Malatsi w sieci społecznościowej X (dawniej Twitter).
Minister wskazał, że osoby odpowiedzialne za błąd w przygotowaniu dokumentu zostaną pociągnięte do odpowiedzialności i podkreślił, że polityka ta przejdzie proces gruntownej rewizji, zanim ponownie zostanie przedstawiona do publicznego komentarza.
Wniosek
Wycofanie się Republiki Południowej Afryki z polityki dotyczącej sztucznej inteligencji stanowi surowe ostrzeżenie dla rządów i instytucji na całym świecie: chociaż sztuczna inteligencja może przyspieszyć proces tworzenia dokumentów, nie może zastąpić potrzeby rygorystycznej weryfikacji przez człowieka niezbędnej do zapewnienia dokładności i zaufania instytucjonalnego.
