A inteligência artificial (IA) representa agora uma grave ameaça à fiabilidade das sondagens de opinião pública online, com novas pesquisas a demonstrar que os bots podem imitar de forma convincente as respostas humanas, evitando a deteção com uma precisão quase perfeita. As implicações vão além da interferência eleitoral, potencialmente envenenando a investigação científica que se baseia em dados de inquéritos.
A vulnerabilidade exposta
Um estudo da Universidade de Dartmouth publicado no Proceedings of the National Academy of Sciences revela que grandes modelos de linguagem (LLMs) podem corromper pesquisas online em grande escala. O principal problema é que a IA pode agora gerar respostas indistinguíveis das de pessoas reais, tornando quase impossível identificar interferências automatizadas.
Para testar isso, os pesquisadores desenvolveram um “respondente sintético autônomo” – uma ferramenta simples de IA impulsionada por um prompt de 500 palavras. Esta ferramenta foi projetada para simular comportamento humano realista, incluindo velocidades de digitação plausíveis, movimentos do mouse e até erros de digitação.
Mimetismo Quase Perfeito
Os resultados foram alarmantes: em mais de 43.000 testes, a IA enganou 99,8% dos sistemas fazendo-os acreditar que se tratava de um participante humano. O bot contornou as salvaguardas padrão como o reCAPTCHA e até resolveu quebra-cabeças lógicos com precisão.
Esta não é uma automação grosseira; a IA pensa em cada pergunta, agindo como um respondente cuidadoso e engajado. A capacidade de gerar respostas credíveis em vários idiomas (incluindo russo, mandarim e coreano) amplifica ainda mais a ameaça, permitindo que intervenientes estrangeiros implementem facilmente campanhas manipuladoras.
Interferência eleitoral a custo mínimo
O estudo destacou a vulnerabilidade prática das sondagens políticas, utilizando as eleições presidenciais dos EUA de 2024 como estudo de caso. Os investigadores descobriram que apenas 10 a 52 respostas geradas por IA poderiam inverter o resultado previsto das sondagens nacionais de alto nível durante a crucial semana final de campanha.
O custo? Apenas 5 centavos de dólar dos EUA (4 centavos de euro) por resposta. Isto torna a manipulação em grande escala incrivelmente acessível, mesmo para intervenientes com recursos limitados. A facilidade com que a IA pode agora distorcer os dados das sondagens levanta sérias preocupações sobre a integridade dos processos democráticos.
Implicações mais amplas para a pesquisa científica
A ameaça estende-se muito além das eleições. Milhares de estudos revisados por pares baseiam-se em dados de pesquisas coletados em plataformas online. Se estes dados forem sistematicamente contaminados por bots, todo o ecossistema do conhecimento poderá ser envenenado.
O estudo argumenta que a comunidade científica deve desenvolver urgentemente métodos novos e verificáveis para a recolha de dados que não possam ser manipulados por ferramentas avançadas de IA. A tecnologia existe para verificar a participação humana real, mas a vontade de implementá-la continua a ser uma barreira crítica.
A necessidade de ação imediata
As conclusões sublinham uma fraqueza fundamental na nossa infraestrutura de dados. A integridade das sondagens e a fiabilidade da investigação científica estão agora diretamente ameaçadas pela manipulação impulsionada pela IA.
Sem acção imediata, a credibilidade dos dados da opinião pública irá diminuir, minando a responsabilização democrática e dificultando o progresso científico. O estudo conclui que a implementação de métodos de verificação robustos não é apenas desejável, mas essencial para preservar a integridade do nosso mundo orientado por dados
