Afrika Selatan Menarik Kebijakan AI Nasional Akibat “Halusinasi” yang Dihasilkan AI

6

Afrika Selatan secara resmi telah menarik rancangan kebijakan kecerdasan buatan nasionalnya setelah penyelidikan mengungkapkan bahwa beberapa kutipan akademis dalam dokumen tersebut seluruhnya dibuat oleh AI.

Keputusan tersebut, yang diumumkan oleh Menteri Komunikasi Solly Malatsi, menyusul temuan bahwa kebijakan tersebut—yang dimaksudkan untuk memandu masa depan teknologi bangsa—dikompromikan oleh “halusinasi”, sebuah fenomena di mana AI generatif menciptakan informasi yang masuk akal namun tidak ada.

Krisis Integritas

Rancangan kebijakan ini awalnya dirancang untuk memposisikan Afrika Selatan sebagai pemimpin regional dalam inovasi AI. Ini mengusulkan kerangka peraturan yang komprehensif, termasuk:
– Pembentukan komisi AI nasional.
– Pembentukan dewan etika AI.
– Pembentukan otoritas pengatur AI.
– Insentif keuangan, seperti keringanan pajak dan hibah, untuk mendorong investasi sektor swasta dalam infrastruktur AI.

Namun, kredibilitas dokumen tersebut runtuh ketika jurnalis dari News24 menemukan bahwa setidaknya enam dari 67 kutipan akademis yang digunakan untuk mendukung argumen kebijakan tersebut tidak ada. Meskipun jurnal-jurnal yang dirujuk—seperti South African Journal of Philosophy dan AI & Society —adalah sah, artikel-artikel spesifik yang dikutip dipastikan merupakan rekayasa oleh editor jurnal-jurnal tersebut.

Mengapa Ini Penting: Masalah “Halusinasi”.

Insiden ini merupakan contoh besar dari tantangan yang semakin besar di era Model Bahasa Besar (LLM). Alat seperti ChatGPT dan Google Gemini dirancang untuk memprediksi kata berikutnya yang paling mungkin terjadi secara statistik secara berurutan, bukan untuk memverifikasi kebenaran faktual. Ketika model-model ini menemui kesenjangan dalam data pelatihannya, mereka sering kali “mengisi kekosongan” dengan informasi yang terdengar berwibawa tetapi sepenuhnya palsu.

Ini bukanlah tren yang terisolasi. Implikasinya terhadap dunia akademis dan tata kelola sangatlah signifikan:
Tingkat Kesalahan yang Meningkat: Sebuah penelitian di jurnal Nature mencatat peningkatan tajam dalam kesalahan yang disebabkan oleh AI, dengan persentase makalah akademis yang berisi kutipan halusinasi melonjak dari 0,3% pada tahun 2024 menjadi lebih dari 2,5% pada tahun 2025.
Skala Dampak: Ini berarti sekitar 110.000 makalah yang diterbitkan pada tahun 2025 berisi referensi yang tidak valid.
Risiko Kelembagaan: Ketika pembuat kebijakan mengandalkan keluaran AI yang belum terverifikasi, mereka berisiko membuat undang-undang nasional berdasarkan misinformasi.

Bergerak Maju

Menteri Malatsi menegaskan, hal ini bukan sekadar kesalahan teknis melainkan kegagalan pengawasan yang mendasar.

“Kegagalan ini bukan sekedar masalah teknis namun telah membahayakan integritas dan kredibilitas rancangan kebijakan,” kata Malatsi di X (sebelumnya Twitter).

Menteri telah mengindikasikan bahwa akan ada konsekuensi bagi mereka yang bertanggung jawab atas kesalahan penyusunan kebijakan tersebut dan telah menekankan bahwa kebijakan tersebut akan menjalani proses revisi yang ketat sebelum diterbitkan kembali untuk mendapatkan komentar publik.

Kesimpulan

Pencabutan kebijakan AI di Afrika Selatan merupakan peringatan keras bagi pemerintah dan lembaga di seluruh dunia: meskipun AI dapat mempercepat proses penyusunan, AI tidak dapat menggantikan kebutuhan verifikasi manusia yang ketat untuk memastikan keakuratan dan kepercayaan institusi.