Sztuczna inteligencja może teraz z łatwością zhakować anonimowość w Internecie

9

Niedawne badania pokazują, że sztuczna inteligencja jest obecnie w stanie niezawodnie odkrywać anonimowe konta internetowe, co podważa długo utrzymywane założenie, że pseudonimy zapewniają rzeczywistą ochronę. Badanie przeprowadzone przez naukowców z ETH Zurich, Anthropic i programu Machine Learning Alignment and Theory Scholars pokazuje, że systemy AI mogą deanonimizować konta z dokładnością do 68 procent, znacznie przewyższając tradycyjne metody. Nie jest to tylko ryzyko teoretyczne; jest to praktyczna zmiana w zakresie łatwości ujawniania tożsamości w Internecie.

Jak sztuczna inteligencja łamie anonimowość

System sztucznej inteligencji działa jak badacz-ludzki, ale na dużą skalę. Analizuje tekst pod kątem subtelnych wskazówek – stylów pisania, szczegółów biograficznych, godzin publikacji – a następnie dopasowuje te wzorce do milionów innych kont. W przeciwieństwie do poprzednich metod deanonimizacji, które polegały na gromadzeniu rozbieżnych danych, sztuczna inteligencja wykorzystuje duże modele językowe (LLM) do identyfikowania prawdopodobnych dopasowań z dużą dokładnością. Eksperymenty na platformach takich jak Reddit, Hacker News i LinkedIn potwierdzają, że nawet ograniczone informacje wystarczą, aby powiązać anonimowe konta z prawdziwymi osobami.

Badanie wykazało na przykład, że wzmianka tylko o jednym filmie na forum internetowym daje 3% szans na zidentyfikowanie użytkownika, podczas gdy wzmianka o dziesięciu lub więcej filmach zwiększa tę szansę do prawie 50%. W jednym z testów sztuczna inteligencja zidentyfikowała 7 procent uczestników ankiety przeprowadzonej wśród naukowców zajmujących się antropią, analizując ich odpowiedzi i dopasowując je do publicznie dostępnych danych. System rozpoznał, że odniesienia do „opiekuna” prawdopodobnie wskazują na absolwenta, a brytyjski angielski może wskazywać na powiązania z Wielką Brytanią.

Ujawnienia dotyczące automatyzacji

Kluczowy przełom leży nie tylko w dokładności, ale także w automatyzacji. To, co wcześniej zajmowało badaczom wiele godzin, teraz można wykonać w ciągu kilku minut i przy minimalnych kosztach. Sam eksperyment kosztował mniej niż 2000 dolarów, czyli od 1 do 4 dolarów za analizowany profil. To radykalnie obniża barierę wejścia, co oznacza, że ​​każdy, kto ma odpowiednie zasoby, może teraz podjąć próbę deanonimizacji kont, w tym organizacje, które wcześniej nie były w stanie tego zrobić.

Jak ujął to Daniel Paleka, badacz z ETH Zurich: „Informacje w Internecie pozostają tam na zawsze”. Ochrona danych w Internecie w połączeniu z coraz potężniejszymi narzędziami sztucznej inteligencji stwarza realne ryzyko dla dziennikarzy, aktywistów i wszystkich innych osób, które chronią się pseudonimami. Badacze ostrzegają również przed możliwością nadużyć w reklamach hipertargetowanych i oszustwach.

Ograniczenia i zastrzeżenia

Pomimo alarmujących ustaleń eksperci przestrzegają, aby nie wyolbrzymiać bezpośredniego zagrożenia. Luke Roche z Oxford Internet Institute zauważa, że ​​sztuczna inteligencja wciąż pozostaje w tyle za możliwościami ludzkich badaczy. Eksperymenty przeprowadzono w kontrolowanych warunkach, korzystając z wybranych zbiorów danych. Na przykład tożsamość Satoshiego Nakamoto pozostaje nieznana od ponad dziesięciu lat. Narzędzia takie jak Signal również okazały się dotychczas skuteczne w ochronie prywatności.

Badacze celowo unikali testowania swojego systemu na prawdziwych anonimowych użytkownikach ze względów etycznych i nie opublikowali pełnych szczegółów technicznych, aby zapobiec nadużyciom. Przyznają jednak, że technologia prawdopodobnie ulegnie poprawie, w miarę jak systemy sztucznej inteligencji staną się potężniejsze i uzyskają dostęp do większych zbiorów danych.

Co to oznacza dla prywatności

Wnioski są jasne: zachowanie anonimowości w Internecie staje się coraz trudniejsze. Chociaż podstawowe środki ostrożności — oddzielanie kont, ograniczanie danych osobowych i unikanie rozpoznawalnych wzorców — mogą nadal być pomocne, nie są już niezawodne. Ciężar nie powinien spadać wyłącznie na użytkowników. Laboratoria sztucznej inteligencji powinny kontrolować sposób wykorzystania swoich narzędzi i wdrażać zabezpieczenia przed deanonimizacją, podczas gdy media społecznościowe powinny ukrócić gromadzenie danych.

Być może era przypadkowych pseudonimów dobiega końca. Dla tych, którzy lekko traktują anonimowość, nowa rzeczywistość jest taka, że ​​to, co publikowane w Internecie, nawet za pośrednictwem rzekomo anonimowych kont, można poskładać w całość łatwiej, niż wielu się wydaje.