L’intelligenza artificiale (AI) rappresenta ora una grave minaccia per l’affidabilità dei sondaggi di opinione pubblica online, con nuove ricerche che dimostrano che i robot possono imitare in modo convincente le risposte umane, eludendo il rilevamento con una precisione quasi perfetta. Le implicazioni vanno oltre l’interferenza elettorale, avvelenando potenzialmente la ricerca scientifica che si basa sui dati dei sondaggi.
La vulnerabilità esposta
Uno studio dell’Università di Dartmouth pubblicato su Proceedings of the National Academy of Sciences rivela che i modelli linguistici di grandi dimensioni (LLM) possono corrompere i sondaggi online su larga scala. Il problema principale è che l’intelligenza artificiale ora può generare risposte indistinguibili da quelle delle persone reali, rendendo quasi impossibile identificare le interferenze automatizzate.
Per testarlo, i ricercatori hanno sviluppato un “rispondente sintetico autonomo”, un semplice strumento di intelligenza artificiale guidato da un messaggio di 500 parole. Questo strumento è stato progettato per simulare comportamenti umani realistici, comprese velocità di digitazione plausibili, movimenti del mouse e persino errori di battitura.
Mimetismo quasi perfetto
I risultati sono stati allarmanti: in oltre 43.000 test, l’IA ha ingannato il 99,8% dei sistemi facendogli credere che si trattasse di un partecipante umano. Il bot ha aggirato le misure di sicurezza standard come reCAPTCHA e ha persino risolto enigmi logici in modo accurato.
Questa non è automazione grezza; l’intelligenza artificiale pensa a ogni domanda, comportandosi come un intervistato attento e impegnato. La capacità di generare risposte credibili in più lingue (tra cui russo, mandarino e coreano) amplifica ulteriormente la minaccia, consentendo ad attori stranieri di implementare facilmente campagne manipolative.
Interferenza elettorale a un costo minimo
Lo studio ha evidenziato la vulnerabilità pratica dei sondaggi politici, utilizzando come caso di studio le elezioni presidenziali americane del 2024. I ricercatori hanno scoperto che da 10 a 52 risposte generate dall’intelligenza artificiale potrebbero ribaltare il risultato previsto dei sondaggi nazionali di alto livello durante l’ultima settimana cruciale della campagna.
Il costo? Solo 5 centesimi di dollaro (4 centesimi di euro) per risposta. Ciò rende la manipolazione su larga scala incredibilmente accessibile, anche ad attori con risorse limitate. La facilità con cui l’intelligenza artificiale può ora distorcere i dati dei sondaggi solleva serie preoccupazioni sull’integrità dei processi democratici.
Implicazioni più ampie per la ricerca scientifica
La minaccia si estende ben oltre le elezioni. Migliaia di studi sottoposti a revisione paritaria si basano su dati di sondaggi raccolti da piattaforme online. Se questi dati venissero sistematicamente contaminati dai robot, l’intero ecosistema della conoscenza potrebbe essere avvelenato.
Lo studio sostiene che la comunità scientifica deve sviluppare urgentemente metodi nuovi e verificabili per la raccolta di dati che non possono essere manipolati da strumenti avanzati di intelligenza artificiale. Esiste la tecnologia per verificare la reale partecipazione umana, ma la volontà di implementarla rimane una barriera critica.
La necessità di un’azione immediata
I risultati sottolineano una debolezza fondamentale nella nostra infrastruttura di dati. L’integrità dei sondaggi e l’affidabilità della ricerca scientifica sono ora direttamente minacciate dalla manipolazione guidata dall’intelligenza artificiale.
Senza un’azione immediata, la credibilità dei dati relativi all’opinione pubblica si indebolirà, minando la responsabilità democratica e ostacolando il progresso scientifico. Lo studio conclude che l’implementazione di metodi di verifica robusti non è solo auspicabile ma essenziale per preservare l’integrità del nostro mondo basato sui dati
