Des recherches récentes démontrent que l’intelligence artificielle peut désormais démasquer de manière fiable les comptes en ligne anonymes – une évolution qui remet en question l’hypothèse de longue date selon laquelle les pseudonymes offrent une réelle protection. L’étude, menée par des chercheurs de l’ETH Zurich, d’Anthropic et du programme Machine Learning Alignment and Theory Scholars, montre que les systèmes d’IA peuvent désanonymiser les comptes avec des taux de précision allant jusqu’à 68 %, dépassant de loin les méthodes traditionnelles. Ce n’est pas seulement un risque théorique ; il s’agit d’un changement pratique dans la facilité avec laquelle les identités peuvent être exposées en ligne.
Comment l’IA brise l’anonymat
Le système d’IA fonctionne comme un enquêteur humain, mais à grande échelle. Il analyse le texte à la recherche d’indices subtils – styles d’écriture, détails biographiques, heures de publication – puis croise ces modèles avec des millions d’autres récits. Contrairement aux techniques de désanonymisation précédentes, qui reposaient sur le regroupement de données dispersées, l’IA utilise de grands modèles linguistiques (LLM) pour identifier les correspondances probables avec une grande précision. Des expériences sur des plateformes comme Reddit, Hacker News et LinkedIn confirment que même des informations limitées peuvent suffire à lier des comptes pseudonymes à des identités réelles.
Par exemple, l’étude a révélé que la mention d’un seul film sur un forum en ligne permettait d’identifier l’utilisateur dans un taux de 3 %, tandis que la mention de dix films ou plus augmentait le taux à près de 50 %. Lors d’un test, l’IA a identifié 7 % des participants à une enquête scientifique Anthropic en analysant leurs réponses et en les recoupant avec des données publiques. Le système reconnaissait que les références à un « superviseur » indiquaient probablement un doctorant et que l’anglais britannique pouvait indiquer une affiliation au Royaume-Uni.
L’automatisation de l’exposition
L’avancée clé n’est pas seulement la précision, mais aussi l’automatisation. Ce qui prenait autrefois des heures aux enquêteurs humains peut désormais être réalisé en quelques minutes et à un coût minime. L’expérience elle-même coûte moins de 2 000 dollars, soit entre 1 et 4 dollars par profil analysé. Cela réduit considérablement les barrières à l’entrée, ce qui signifie que toute personne disposant de ressources peut désormais tenter de désanonymiser des comptes, y compris des entités qui n’étaient auparavant pas en mesure de le faire.
Comme le dit Daniel Paleka, chercheur à l’ETH Zurich : « Les informations sur Internet sont là pour toujours. » La persistance des données en ligne, combinée à des outils d’IA de plus en plus puissants, crée des risques tangibles pour les journalistes, les militants et toute autre personne s’appuyant sur des pseudonymes pour se protéger. Les chercheurs mettent également en garde contre d’éventuelles utilisations abusives dans le cadre de publicités hyper-ciblées et d’escroqueries.
Limites et mises en garde
Bien que les résultats soient préoccupants, les experts mettent en garde contre une surestimation de la menace immédiate. Luc Rocher, de l’Oxford Internet Institute, note que l’IA est encore à la traîne par rapport aux capacités d’investigation humaines. Les expériences ont été menées dans des conditions contrôlées, à l’aide d’ensembles de données sélectionnés. L’identité de Satoshi Nakamoto, par exemple, reste inconnue après plus d’une décennie. Jusqu’à présent, des outils comme Signal se sont également révélés efficaces pour protéger la vie privée.
Les chercheurs ont délibérément évité de tester leur système sur de vrais utilisateurs pseudonymes pour des raisons éthiques et n’ont pas publié tous les détails techniques pour éviter toute utilisation abusive. Cependant, ils reconnaissent que la technologie s’améliorera probablement à mesure que les systèmes d’IA deviendront plus performants et auront accès à des ensembles de données plus importants.
Ce que cela signifie pour la confidentialité
Les implications sont claires : maintenir l’anonymat en ligne devient de plus en plus difficile. Même si des précautions de base – séparer les comptes, limiter les données personnelles et éviter les schémas identifiables – peuvent encore s’avérer utiles, elles ne sont plus infaillibles. Le fardeau ne devrait pas non plus incomber entièrement aux utilisateurs. Les laboratoires d’IA doivent surveiller la manière dont leurs outils sont utilisés et mettre en œuvre des garanties contre la désanonymisation, tandis que les plateformes de médias sociaux doivent sévir contre le grattage de données.
L’ère des pseudonymes occasionnels touche peut-être à sa fin. Pour ceux qui traitent l’anonymat avec désinvolture, la nouvelle réalité est que ce qui est publié en ligne, même dans des comptes soi-disant anonymes, peut être reconstitué plus facilement que beaucoup ne le pensent.





























