Sztuczna inteligencja zagraża uczciwości ankiet: boty teraz doskonale naśladują ludzi

9

Sztuczna inteligencja (AI) stanowi obecnie poważne zagrożenie dla wiarygodności internetowych sondaży opinii publicznej, ponieważ nowe badania pokazują, że boty mogą w przekonujący sposób naśladować ludzkie reakcje, omijając systemy wykrywania z niemal idealną dokładnością. Konsekwencje wykraczają daleko poza ingerencję w wybory i potencjalnie zatruwają badania naukowe opierające się na danych z sondaży.

Narażenie na lukę w zabezpieczeniach

Badanie opublikowane w Proceedings of the National Academy of Sciences przez Uniwersytet Dartmouth pokazuje, że duże modele językowe (LLM) mogą wpływać na ankiety internetowe na dużą skalę. Główny problem polega na tym, że sztuczna inteligencja jest obecnie w stanie generować reakcje nie do odróżnienia od reakcji prawdziwych ludzi, co sprawia, że ​​wykrycie automatycznych zakłóceń jest prawie niemożliwe.

Aby to przetestować, naukowcy opracowali „autonomiczny syntetyczny respondent”, proste narzędzie sztucznej inteligencji, które działa na podstawie zapytania składającego się z 500 słów. Narzędzie zostało zaprojektowane w celu symulowania realistycznych zachowań człowieka, w tym wiarygodnej prędkości pisania, ruchów myszy, a nawet literówek.

Doskonała imitacja

Wyniki były alarmujące: w ponad 43 000 testów sztuczna inteligencja oszukała 99,8% systemów, wierząc, że to prawdziwy uczestnik. Bot omijał standardowe zabezpieczenia takie jak reCAPTCHA i nawet poprawnie rozwiązywał zagadki logiczne.

To nie jest prymitywna automatyzacja; AI myśli o każdym pytaniu, zachowując się jak uważny i zaangażowany respondent. Możliwość generowania wiarygodnych odpowiedzi w wielu językach (w tym rosyjskim, chińskim i koreańskim) dodatkowo zwiększa zagrożenie, umożliwiając podmiotom zagranicznym łatwe prowadzenie kampanii manipulacyjnych.

Ingerowanie w wybory minimalnymi kosztami

W badaniu uwydatniono praktyczną słabość sondaży politycznych, na przykładzie kampanii prezydenckiej w USA w 2024 r. Naukowcy odkryli, że zaledwie 10 do 52 odpowiedzi wygenerowanych przez sztuczną inteligencję może zmienić przewidywany wynik wiodących sondaży ogólnokrajowych w decydującym ostatnim tygodniu kampanii.

Cena? Tylko 5 centów amerykańskich (4 eurocenty) za odpowiedź. Dzięki temu manipulacja na dużą skalę jest niezwykle dostępna, nawet dla aktorów z ograniczonymi zasobami. Łatwość, z jaką sztuczna inteligencja może obecnie zniekształcać dane z sondaży, budzi poważne obawy co do integralności procesów demokratycznych.

Szersze implikacje dla badań naukowych

Zagrożenie wykracza daleko poza wybory. Tysiące recenzowanych badań opiera się na danych z ankiet zebranych na platformach internetowych. Jeśli te dane będą systematycznie uszkadzane przez boty, cały system wiedzy może zostać zatruty.

Z badania wynika, że ​​społeczność naukowa musi pilnie opracować nowe, testowalne metody gromadzenia danych, którymi nie mogą manipulować zaawansowane narzędzia sztucznej inteligencji. Istnieją technologie umożliwiające sprawdzenie rzeczywistego uczestnictwa ludzi, ale decydującą barierą pozostaje wola ich wdrożenia.

Potrzeba natychmiastowego działania

Odkrycia podkreślają zasadniczą słabość naszej infrastruktury danych. Rzetelność ankiet i wiarygodność badań naukowych są obecnie bezpośrednio zależne od manipulacji opartej na sztucznej inteligencji.

Bez natychmiastowych działań zaufanie do danych opinii publicznej zostanie zniszczone, co podważy demokratyczną rozliczalność i utrudni postęp naukowy. Z badania wynika, że ​​wdrożenie solidnych praktyk weryfikacyjnych jest nie tylko pożądane, ale konieczne do utrzymania integralności naszego świata opartego na danych.