Umělá inteligence může nyní snadno hackovat online anonymitu

5

Nedávný výzkum ukazuje, že umělá inteligence je nyní schopna spolehlivě odhalit anonymní online účty, což je vývoj, který zpochybňuje zažitý předpoklad, že pseudonymy poskytují skutečnou ochranu. Studie, kterou provedli vědci z ETH Zurich, Anthropic a programu Machine Learning Alignment and Theory Scholars, prokazuje, že systémy AI dokážou deanonymizovat účty s přesností až 68 procent, což výrazně předčí tradiční metody. Nejde jen o teoretické riziko; toto je praktický posun v tom, jak snadno lze identitu odhalit online.

Jak umělá inteligence prolomí anonymitu

Systém umělé inteligence funguje jako lidský vyšetřovatel, ale ve velkém měřítku. Analyzuje text na jemné vodítka – styly psaní, biografické detaily, časy zveřejnění – a poté tyto vzory spojuje s miliony dalších účtů. Na rozdíl od předchozích metod deanonymizace, které se spoléhaly na shromažďování různorodých dat, používá AI k identifikaci pravděpodobných shod s vysokou přesností velké jazykové modely (LLM). Experimenty na platformách jako Reddit, Hacker News a LinkedIn potvrzují, že k propojení anonymních účtů se skutečnými jednotlivci stačí i omezené informace.

Studie například zjistila, že zmínka pouze o jednom filmu na online fóru dává 3procentní šanci na identifikaci uživatele, zatímco zmínka o deseti a více filmech zvyšuje tuto šanci na téměř 50 procent. V jednom testu AI ​​identifikovala 7 procent účastníků průzkumu mezi vědci z Antropie analýzou jejich odpovědí a jejich porovnáním s veřejně dostupnými údaji. Systém rozpoznal, že odkazy na „supervisor“ pravděpodobně označují postgraduálního studenta a že britská angličtina může naznačovat spojení se Spojeným královstvím.

Prohlášení o automatizaci

Klíčový průlom spočívá nejen v přesnosti, ale také v automatizaci. To, co dříve vyšetřovatelům trvalo hodiny, lze nyní provést během několika minut a s minimálními náklady. Samotný experiment stál méně než 2 000 USD nebo 1 až 4 USD za analyzovaný profil. To dramaticky snižuje překážku vstupu, což znamená, že kdokoli, kdo má prostředky, se nyní může pokusit deanonymizovat účty, včetně organizací, které to dříve nebyly schopny.

Jak říká Daniel Paleka, výzkumník z ETH Zurich, „Informace na internetu tam zůstanou navždy.“ Uchovávání online dat v kombinaci se stále výkonnějšími nástroji umělé inteligence představuje skutečné riziko pro novináře, aktivisty a kohokoli dalšího, kdo se při ochraně spoléhá na pseudonymy. Výzkumníci také varují před potenciálem zneužití v hyper-cílené reklamě a podvodech.

Omezení a vyloučení odpovědnosti

I přes alarmující zjištění odborníci varují před zveličováním bezprostřední hrozby. Luke Roche z Oxford Internet Institute poznamenává, že AI stále zaostává za schopnostmi lidských vyšetřovatelů. Experimenty byly prováděny za kontrolovaných podmínek s použitím vybraných datových souborů. Například identita Satoshi Nakamota zůstává více než deset let neznámá. Nástroje jako Signal se také zatím ukázaly jako účinné při ochraně soukromí.

Výzkumníci se záměrně vyhýbali testování svého systému na skutečných anonymních uživatelích kvůli etickým obavám a nezveřejnili úplné technické podrobnosti, aby zabránili zneužití. Uznávají však, že technologie se pravděpodobně zlepší s tím, jak se systémy AI stanou výkonnějšími a získají přístup k větším souborům dat.

Co to znamená pro soukromí

Závěry jsou jasné: udržet online anonymitu je stále obtížnější. I když základní opatření – oddělení účtů, omezení osobních údajů a vyvarování se rozpoznatelných vzorců – mohou stále pomoci, již nejsou spolehlivá. Zátěž by neměla dopadat pouze na uživatele. Laboratoře umělé inteligence by měly kontrolovat, jak jsou jejich nástroje používány, a implementovat ochranu proti deanonymizaci, zatímco sociální média by měla zamezit shromažďování dat.

Éra náhodných přezdívek se možná chýlí ke konci. Pro ty, kteří berou anonymitu na lehkou váhu, je novou realitou to, že to, co je zveřejněno online, dokonce i prostřednictvím údajně anonymních účtů, lze poskládat snáze, než si mnozí uvědomují.