додому Без рубрики L’intelligenza artificiale ora può rompere l’anonimato online con una facilità senza precedenti

L’intelligenza artificiale ora può rompere l’anonimato online con una facilità senza precedenti

Ricerche recenti dimostrano che l’intelligenza artificiale può ora smascherare in modo affidabile gli account online anonimi, uno sviluppo che mette in discussione la convinzione di lunga data secondo cui gli pseudonimi offrono una protezione reale. Lo studio, condotto dai ricercatori dell’ETH di Zurigo, di Anthropic e del programma Machine Learning Alignment and Theory Scholars, mostra che i sistemi di intelligenza artificiale possono deanonimizzare gli account con tassi di precisione fino al 68%, superando di gran lunga i metodi tradizionali. Questo non è solo un rischio teorico; si tratta di un cambiamento pratico nella facilità con cui le identità possono essere esposte online.

Come l’intelligenza artificiale distrugge l’anonimato

Il sistema di intelligenza artificiale funziona come un investigatore umano, ma su larga scala. Analizza il testo alla ricerca di indizi sottili – stili di scrittura, dettagli biografici, orari di pubblicazione – quindi confronta questi modelli con milioni di altri resoconti. A differenza delle precedenti tecniche di deanonimizzazione, che si basavano sulla raccolta di dati sparsi, l’intelligenza artificiale utilizza modelli linguistici di grandi dimensioni (LLM) per identificare probabili corrispondenze con elevata precisione. Esperimenti su piattaforme come Reddit, Hacker News e LinkedIn confermano che anche informazioni limitate possono essere sufficienti per collegare account pseudonimi a identità reali.

Ad esempio, lo studio ha rilevato che menzionare un solo film in un forum online aveva una percentuale di successo del 3% nell’identificazione dell’utente, mentre menzionare dieci o più film aumentava la percentuale fino a quasi il 50%. In un test, l’intelligenza artificiale ha identificato il 7% dei partecipanti a un sondaggio di scienziati antropici analizzando le loro risposte e incrociandole con dati pubblici. Il sistema riconosceva che i riferimenti a un “supervisore” indicavano probabilmente uno studente di dottorato e che l’inglese britannico poteva indicare un’affiliazione nel Regno Unito.

L’automazione dell’esposizione

La svolta fondamentale non è solo la precisione, ma l’automazione. Ciò che un tempo richiedeva ore agli investigatori umani, ora può essere fatto in pochi minuti e a un costo minimo. L’esperimento stesso è costato meno di 2.000 dollari, o tra 1 e 4 dollari per profilo analizzato. Ciò riduce drasticamente la barriera all’ingresso, il che significa che chiunque abbia risorse può ora tentare di deanonimizzare gli account, comprese le entità che in precedenza non erano in grado di farlo.

Come afferma Daniel Paleka, ricercatore dell’ETH di Zurigo: “Le informazioni su Internet sono lì per sempre”. La persistenza dei dati online, combinata con strumenti di intelligenza artificiale sempre più potenti, crea rischi tangibili per giornalisti, attivisti e chiunque altro faccia affidamento sugli pseudonimi per proteggersi. I ricercatori mettono in guardia anche dal potenziale uso improprio della pubblicità iper-mirata e dalle truffe.

Limitazioni e avvertenze

Sebbene i risultati siano preoccupanti, gli esperti mettono in guardia dal sopravvalutare la minaccia immediata. Luc Rocher dell’Oxford Internet Institute osserva che l’intelligenza artificiale è ancora in ritardo rispetto alle capacità investigative umane. Gli esperimenti sono stati condotti in condizioni controllate, utilizzando set di dati selezionati. L’identità di Satoshi Nakamoto, ad esempio, rimane sconosciuta dopo oltre un decennio. Finora anche strumenti come Signal si sono dimostrati efficaci nel proteggere la privacy.

I ricercatori hanno deliberatamente evitato di testare il loro sistema su veri utenti pseudonimi per questioni etiche e non hanno pubblicato dettagli tecnici completi per evitare abusi. Tuttavia, riconoscono che la tecnologia probabilmente migliorerà man mano che i sistemi di intelligenza artificiale diventeranno più capaci e avranno accesso a set di dati più grandi.

Cosa significa per la privacy

Le implicazioni sono chiare: mantenere l’anonimato online sta diventando sempre più difficile. Sebbene le precauzioni di base – tenere i conti separati, limitare i dettagli personali ed evitare schemi identificabili – possano ancora aiutare, non sono più infallibili. L’onere non dovrebbe ricadere interamente sugli utenti. I laboratori di intelligenza artificiale devono monitorare il modo in cui vengono utilizzati i loro strumenti e implementare misure di salvaguardia contro la deanonimizzazione, mentre le piattaforme di social media dovrebbero reprimere lo scraping dei dati.

L’era degli pseudonimi casuali potrebbe finire. Per coloro che trattano l’anonimato con disinvoltura, la nuova realtà è che ciò che viene pubblicato online, anche in account apparentemente anonimi, può essere messo insieme più facilmente di quanto molti credano.

Exit mobile version