Sudáfrica retira su política nacional sobre IA tras las “alucinaciones” generadas por la IA

10

Sudáfrica ha retirado oficialmente su proyecto de política nacional de inteligencia artificial después de que una investigación revelara que varias citas académicas dentro del documento fueron enteramente fabricadas por IA.

La decisión, anunciada por el Ministro de Comunicaciones, Solly Malatsi, se produce tras el descubrimiento de que la política, destinada a guiar el futuro tecnológico de la nación, se vio comprometida por “alucinaciones”, un fenómeno en el que la IA generativa crea información plausible pero inexistente.

La crisis de integridad

El borrador de la política fue diseñado originalmente para posicionar a Sudáfrica como líder regional en innovación en IA. Propuso un marco regulatorio integral, que incluye:
– El establecimiento de una comisión nacional de IA.
– La creación de un junto de ética de la IA.
– La formación de una autoridad reguladora de la IA.
– Incentivos financieros, como exenciones fiscales y subvenciones, para fomentar la inversión del sector privado en infraestructura de IA.

Sin embargo, la credibilidad del documento colapsó cuando los periodistas de News24 descubrieron que al menos seis de las 67 citas académicas utilizadas para respaldar los argumentos de la política no existían. Si bien las revistas a las que se hace referencia, como South African Journal of Philosophy y AI & Society, son legítimas, los editores de las revistas confirmaron que los artículos específicos citados eran invenciones.

Por qué esto importa: el problema de las “alucinaciones”

Este incidente es un ejemplo destacado de un desafío creciente en la era de los modelos de lenguajes grandes (LLM). Herramientas como ChatGPT y Google Gemini están diseñadas para predecir la siguiente palabra estadísticamente más probable en una secuencia, no para verificar la verdad objetiva. Cuando estos modelos encuentran lagunas en sus datos de entrenamiento, a menudo “llenan los espacios en blanco” con información que suena autorizada pero que es completamente falsa.

Esta no es una tendencia aislada. Las implicaciones para la academia y la gobernanza son significativas:
Tasas de error en aumento: Un estudio en la revista Nature observó un fuerte aumento en los errores generados por IA, con el porcentaje de artículos académicos que contienen citas alucinadas saltando del 0,3% en 2024 a más del 2,5% en 2025.
Escala de impacto: Esto se traduce en un estimado de 110 000 artículos publicados en 2025 que contienen referencias no válidas.
Riesgo institucional: Cuando los formuladores de políticas dependen de resultados de IA no verificados, corren el riesgo de elaborar leyes nacionales sobre una base de información errónea.

Avanzando

El Ministro Malatsi enfatizó que esto no era simplemente un problema técnico sino una falla fundamental de supervisión.

“Este fracaso no es una mera cuestión técnica sino que ha comprometido la integridad y credibilidad del proyecto de política”, afirmó Malatsi en X (antes Twitter).

El Ministro ha indicado que habrá consecuencias para los responsables del error de redacción y ha subrayado que la política se someterá a un riguroso proceso de revisión antes de ser reeditada para comentario público.

Conclusión

La retirada de la política de IA de Sudáfrica sirve como una dura advertencia para los gobiernos e instituciones de todo el mundo: si bien la IA puede acelerar el proceso de redacción, no puede reemplazar la necesidad de una verificación humana rigurosa para garantizar la precisión y la confianza institucional.