AI ohrožuje integritu průzkumu: Boti nyní dokonale napodobují lidi

3

Umělá inteligence (AI) nyní představuje velkou hrozbu pro spolehlivost online průzkumů veřejného mínění, protože nový výzkum ukazuje, že roboti dokážou přesvědčivě napodobovat lidské reakce a obcházet detekční systémy s téměř dokonalou přesností. Důsledky jdou daleko za zasahování do voleb a potenciálně otráví vědecký výzkum, který se opírá o údaje z průzkumů.

Vystavení zranitelnosti

Studie publikovaná v Proceedings of the National Academy of Sciences Dartmouth University ukazuje, že velké jazykové modely (LLM) mohou ovlivnit online průzkumy ve velkém měřítku. Hlavním problémem je, že umělá inteligence je nyní schopna generovat odpovědi, které jsou k nerozeznání od těch skutečných lidí, takže je téměř nemožné detekovat automatické rušení.

Aby to vědci otestovali, vyvinuli „autonomní syntetický respondér“, jednoduchý nástroj AI, který běží na dotaz o 500 slovech. Nástroj byl navržen tak, aby simuloval realistické lidské chování, včetně věrohodné rychlosti psaní, pohybů myši a dokonce i překlepů.

Dokonalá imitace

Výsledky byly alarmující: ve více než 43 000 testech umělá inteligence oklamala 99,8 % systémů, aby uvěřily, že jde o skutečného účastníka. Bot obešel standardní bezpečnostní opatření, jako je reCAPTCHA, a dokonce přesně vyřešil logické hádanky.

Toto není hrubá automatizace; Umělá inteligence přemýšlí o každé otázce a chová se jako pozorný a angažovaný respondent. Schopnost generovat věrohodné odpovědi ve více jazycích (včetně ruštiny, čínštiny a korejštiny) hrozbu dále zvyšuje a umožňuje zahraničním aktérům snadno spouštět manipulativní kampaně.

Zasahování do voleb za minimální náklady

Studie zdůraznila praktickou zranitelnost politického průzkumu veřejného mínění na příkladu americké prezidentské kampaně v roce 2024. Výzkumníci zjistili, že pouhých 10 až 52 odpovědí generovaných umělou inteligencí může změnit předpokládaný výsledek předních národních průzkumů veřejného mínění v rozhodujícím posledním týdnu kampaně.

Cena? Pouze 5 amerických centů (4 eurocenty) za odpověď. Díky tomu je manipulace ve velkém měřítku neuvěřitelně přístupná i pro aktéry s omezenými zdroji. Snadnost, s jakou nyní umělá inteligence může zkreslovat data z průzkumů, vyvolává vážné obavy o integritu demokratických procesů.

Širší důsledky pro vědecký výzkum

Hrozba sahá daleko za hranice voleb. Tisíce recenzovaných studií spoléhají na údaje z průzkumů shromážděné na online platformách. Pokud jsou tato data systematicky poškozována roboty, může být otráven celý znalostní systém.

Studie tvrdí, že vědecká komunita musí urychleně vyvinout nové, testovatelné metody sběru dat, které nemohou být manipulovány pokročilými nástroji umělé inteligence. Technologie pro testování skutečné účasti lidí existují, ale kritickou překážkou zůstává vůle je implementovat.

Potřeba okamžité akce

Zjištění poukazují na zásadní slabinu naší datové infrastruktury. Integrita průzkumů a spolehlivost vědeckého výzkumu jsou nyní přímo závislé na manipulaci řízené umělou inteligencí.

Bez okamžité akce bude důvěra v údaje o veřejném mínění zničena, což podkope demokratickou odpovědnost a brzdí vědecký pokrok. Studie dochází k závěru, že implementace robustních ověřovacích postupů je nejen žádoucí, ale nezbytná pro zachování integrity našeho světa založeného na datech.