A África do Sul retirou oficialmente o seu projecto de política nacional de inteligência artificial depois de uma investigação ter revelado que várias citações académicas contidas no documento foram inteiramente fabricadas pela IA.
A decisão, anunciada pelo Ministro das Comunicações, Solly Malatsi, segue-se à descoberta de que a política – destinada a orientar o futuro tecnológico da nação – foi comprometida por “alucinações”, um fenómeno em que a IA generativa cria informações plausíveis, mas inexistentes.
A crise de integridade
O projecto de política foi originalmente concebido para posicionar a África do Sul como um líder regional na inovação da IA. Propôs um quadro regulamentar abrangente, incluindo:
– A criação de uma comissão nacional de IA.
– A criação de um Conselho de Ética em IA.
– A formação de uma autoridade reguladora de IA.
– Incentivos financeiros, tais como incentivos fiscais e subsídios, para encorajar o investimento do sector privado em infra-estruturas de IA.
No entanto, a credibilidade do documento entrou em colapso quando jornalistas do News24 descobriram que pelo menos seis das 67 citações académicas utilizadas para apoiar os argumentos da política não existiam. Embora as revistas referenciadas – como o South African Journal of Philosophy e AI & Society – sejam legítimas, os artigos específicos citados foram confirmados como invenções dos editores das revistas.
Por que isso é importante: o problema da “alucinação”
Este incidente é um exemplo notável de um desafio crescente na era dos Grandes Modelos de Linguagem (LLMs). Ferramentas como ChatGPT e Google Gemini são projetadas para prever a próxima palavra estatisticamente mais provável em uma sequência, e não para verificar a verdade factual. Quando esses modelos encontram lacunas em seus dados de treinamento, eles muitas vezes “preenchem as lacunas” com informações que parecem confiáveis, mas totalmente falsas.
Esta não é uma tendência isolada. As implicações para a academia e a governação são significativas:
– Taxas de erro crescentes: Um estudo publicado na revista Nature observou um aumento acentuado nos erros gerados por IA, com a porcentagem de artigos acadêmicos contendo citações alucinadas saltando de 0,3% em 2024 para mais de 2,5% em 2025.
– Escala de impacto: Isso se traduz em uma estimativa de 110.000 artigos publicados em 2025 contendo referências inválidas.
– Risco Institucional: Quando os decisores políticos confiam em resultados de IA não verificados, correm o risco de construir leis nacionais com base na desinformação.
Seguindo em frente
O Ministro Malatsi enfatizou que isto não era apenas uma falha técnica, mas uma falha fundamental de supervisão.
“Esta falha não é uma mera questão técnica, mas comprometeu a integridade e a credibilidade do projecto de política”, afirmou Malatsi no X (antigo Twitter).
O Ministro indicou que haverá consequências para os responsáveis pelo erro de redacção e sublinhou que a política passará por um rigoroso processo de revisão antes de ser reeditada para comentário público.
Conclusão
A retirada da política de IA da África do Sul serve como um alerta severo para governos e instituições em todo o mundo: embora a IA possa acelerar o processo de elaboração, não pode substituir a necessidade de verificação humana rigorosa para garantir a precisão e a confiança institucional.
