Recent onderzoek toont aan dat kunstmatige intelligentie nu op betrouwbare wijze anonieme online accounts kan ontmaskeren – een ontwikkeling die de lang gekoesterde veronderstelling in twijfel trekt dat pseudoniemen echte bescherming bieden. Het onderzoek, uitgevoerd door onderzoekers van ETH Zurich, Anthropic en het Machine Learning Alignment and Theory Scholars-programma, laat zien dat AI-systemen accounts kunnen deanonimiseren met een nauwkeurigheid tot 68 procent, wat de traditionele methoden ver overtreft. Dit is niet alleen een theoretisch risico; het is een praktische verandering in hoe gemakkelijk identiteiten online kunnen worden onthuld.
Hoe AI de anonimiteit kraakt
Het AI-systeem werkt als een menselijke onderzoeker, maar dan op schaal. Het analyseert tekst op subtiele aanwijzingen (schrijfstijlen, biografische details, posttijden) en vergelijkt deze patronen vervolgens met miljoenen andere accounts. In tegenstelling tot eerdere deanonimiseringstechnieken, die afhankelijk waren van het samenvoegen van verspreide gegevens, gebruikt de AI grote taalmodellen (LLM’s) om waarschijnlijke overeenkomsten met hoge precisie te identificeren. Experimenten op platforms als Reddit, Hacker News en LinkedIn bevestigen dat zelfs beperkte informatie voldoende kan zijn om pseudonieme accounts aan echte identiteiten te koppelen.
Uit het onderzoek bleek bijvoorbeeld dat het noemen van slechts één film op een online forum een succespercentage van 3 procent had voor het identificeren van de gebruiker, terwijl het noemen van tien of meer films het succespercentage verhoogde tot bijna 50 procent. In één test identificeerde de AI 7 procent van de deelnemers aan een onderzoek naar antropische wetenschappers door hun antwoorden te analyseren en deze te vergelijken met openbare gegevens. Het systeem erkende dat verwijzingen naar een ‘supervisor’ waarschijnlijk op een promovendus duidden, en dat Brits Engels kon verwijzen naar een Britse aansluiting.
De automatisering van blootstelling
De belangrijkste doorbraak is niet alleen de nauwkeurigheid, maar ook de automatisering. Wat ooit menselijke onderzoekers uren kostte om te bereiken, kan nu in enkele minuten worden gedaan, en tegen minimale kosten. Het experiment zelf kostte minder dan 2.000 dollar, of tussen de 1 en 4 dollar per geanalyseerd profiel. Dit verlaagt de toegangsdrempel dramatisch, wat betekent dat iedereen met middelen nu kan proberen accounts te deanonimiseren, inclusief entiteiten die dit voorheen niet konden doen.
Zoals Daniel Paleka, een onderzoeker aan de ETH Zürich, het verwoordde: “Informatie op internet is er voor altijd.” Het voortbestaan van online data, gecombineerd met steeds krachtigere AI-tools, creëert tastbare risico’s voor journalisten, activisten en iedereen die voor bescherming afhankelijk is van pseudoniemen. De onderzoekers waarschuwen ook voor mogelijk misbruik in hypergerichte advertenties en oplichting.
Beperkingen en kanttekeningen
Hoewel de bevindingen zorgwekkend zijn, waarschuwen deskundigen voor het overdrijven van de onmiddellijke dreiging. Luc Rocher van het Oxford Internet Institute merkt op dat AI nog steeds achterloopt op de menselijke onderzoekscapaciteiten. De experimenten werden uitgevoerd onder gecontroleerde omstandigheden, met behulp van samengestelde datasets. De identiteit van Satoshi Nakamoto bijvoorbeeld blijft na ruim tien jaar onbekend. Tools zoals Signal zijn tot nu toe ook effectief gebleken in het beschermen van de privacy.
De onderzoekers vermeden bewust het testen van hun systeem op echte pseudonieme gebruikers vanwege ethische bezwaren en publiceerden geen volledige technische details om misbruik te voorkomen. Ze erkennen echter dat de technologie waarschijnlijk zal verbeteren naarmate AI-systemen capabeler worden en toegang krijgen tot grotere datasets.
Wat dit betekent voor de privacy
De implicaties zijn duidelijk: het handhaven van online anonimiteit wordt steeds moeilijker. Hoewel basisvoorzorgsmaatregelen – het gescheiden houden van accounts, het beperken van persoonlijke gegevens en het vermijden van identificeerbare patronen – nog steeds kunnen helpen, zijn ze niet langer onfeilbaar. De last mag ook niet volledig op de gebruikers rusten. AI-laboratoria moeten monitoren hoe hun tools worden gebruikt en waarborgen implementeren tegen deanonimisering, terwijl sociale-mediaplatforms hard moeten optreden tegen het schrapen van gegevens.
Het tijdperk van informele pseudoniemen kan ten einde zijn. Voor degenen die anonimiteit nonchalant behandelen: de nieuwe realiteit is dat wat online wordt geplaatst, zelfs op zogenaamd anonieme accounts, gemakkelijker in elkaar kan worden gezet dan velen denken.
