Aktuelle Forschungsergebnisse zeigen, dass künstliche Intelligenz anonyme Online-Konten mittlerweile zuverlässig enttarnen kann – eine Entwicklung, die die lange gehegte Annahme, dass Pseudonyme echten Schutz bieten, in Frage stellt. Die von Forschern der ETH Zürich, Anthropic und dem Machine Learning Alignment and Theory Scholars-Programm durchgeführte Studie zeigt, dass KI-Systeme Konten mit Genauigkeitsraten von bis zu 68 Prozent deanonymisieren können, was herkömmliche Methoden bei weitem übertrifft. Dies ist nicht nur ein theoretisches Risiko; Es ist ein praktischer Wandel in der Art und Weise, wie leicht Identitäten online offengelegt werden können.
Wie KI die Anonymität knackt
Das KI-System funktioniert wie ein menschlicher Ermittler, allerdings in großem Maßstab. Es analysiert Texte auf subtile Hinweise – Schreibstile, biografische Details, Veröffentlichungszeiten – und gleicht diese Muster dann mit Millionen anderer Konten ab. Im Gegensatz zu früheren Deanonymisierungstechniken, die auf dem Zusammenfügen verstreuter Daten beruhten, verwendet die KI große Sprachmodelle (LLMs), um wahrscheinliche Übereinstimmungen mit hoher Präzision zu identifizieren. Experimente auf Plattformen wie Reddit, Hacker News und LinkedIn bestätigen, dass selbst begrenzte Informationen ausreichen können, um pseudonyme Konten mit echten Identitäten zu verknüpfen.
Die Studie ergab beispielsweise, dass die Erwähnung nur eines Films in einem Online-Forum eine Erfolgsquote von 3 Prozent bei der Identifizierung des Benutzers hatte, während die Erwähnung von zehn oder mehr Filmen die Erfolgsquote auf fast 50 Prozent erhöhte. In einem Test identifizierte die KI 7 Prozent der Teilnehmer einer anthropischen Wissenschaftlerumfrage, indem sie ihre Antworten analysierte und sie mit öffentlichen Daten verglich. Das System erkannte, dass Verweise auf einen „Betreuer“ wahrscheinlich auf einen Doktoranden hindeuteten und dass britisches Englisch auf eine Zugehörigkeit zum Vereinigten Königreich hinweisen könnte.
Die Automatisierung der Belichtung
Der entscheidende Durchbruch ist nicht nur die Genauigkeit, sondern auch die Automatisierung. Wofür menschliche Forscher früher Stunden brauchten, kann jetzt in wenigen Minuten und mit minimalen Kosten erledigt werden. Das Experiment selbst kostete weniger als 2.000 US-Dollar bzw. zwischen 1 und 4 US-Dollar pro analysiertem Profil. Dadurch wird die Eintrittsbarriere drastisch gesenkt, was bedeutet, dass nun jeder, der über entsprechende Ressourcen verfügt, versuchen kann, Konten zu deanonymisieren, auch Unternehmen, die dazu zuvor nicht in der Lage waren.
Wie Daniel Paleka, Forscher an der ETH Zürich, es ausdrückte: „Informationen im Internet sind für immer da.“ Die Persistenz von Online-Daten in Kombination mit immer leistungsfähigeren KI-Tools birgt konkrete Risiken für Journalisten, Aktivisten und alle anderen, die sich zum Schutz auf Pseudonyme verlassen. Die Forscher warnen außerdem vor potenziellem Missbrauch durch gezielte Werbung und Betrug.
Einschränkungen und Vorbehalte
Obwohl die Ergebnisse besorgniserregend sind, warnen Experten davor, die unmittelbare Bedrohung überzubewerten. Luc Rocher vom Oxford Internet Institute stellt fest, dass die KI immer noch hinter den menschlichen Ermittlungsfähigkeiten zurückbleibt. Die Experimente wurden unter kontrollierten Bedingungen unter Verwendung kuratierter Datensätze durchgeführt. Die Identität von Satoshi Nakamoto beispielsweise ist nach über einem Jahrzehnt immer noch unbekannt. Auch Tools wie Signal haben sich bisher als wirksam zum Schutz der Privatsphäre erwiesen.
Aus ethischen Gründen verzichteten die Forscher bewusst darauf, ihr System an echten pseudonymen Nutzern zu testen und veröffentlichten auch keine vollständigen technischen Details, um Missbrauch vorzubeugen. Sie erkennen jedoch an, dass sich die Technologie wahrscheinlich verbessern wird, wenn KI-Systeme leistungsfähiger werden und Zugriff auf größere Datensätze haben.
Was das für den Datenschutz bedeutet
Die Auswirkungen liegen auf der Hand: Die Wahrung der Online-Anonymität wird immer schwieriger. Grundlegende Vorsichtsmaßnahmen – die Trennung von Konten, die Beschränkung persönlicher Daten und die Vermeidung erkennbarer Muster – können zwar immer noch hilfreich sein, sind aber nicht mehr narrensicher. Die Last sollte auch nicht ausschließlich bei den Benutzern liegen. KI-Labore müssen überwachen, wie ihre Tools verwendet werden, und Schutzmaßnahmen gegen Deanonymisierung implementieren, während Social-Media-Plattformen gegen Data Scraping vorgehen sollten.
Die Ära der Gelegenheitspseudonyme könnte zu Ende gehen. Für diejenigen, die die Anonymität beiläufig behandeln, ist die neue Realität, dass das, was online gepostet wird, selbst auf vermeintlich anonymen Konten, einfacher zusammengesetzt werden kann, als viele annehmen.
