I fandom sfruttano i deepfake dell’intelligenza artificiale nonostante la reazione negativa delle celebrità

21

L’ascesa dell’intelligenza artificiale ha sbloccato una nuova frontiera nella cultura dei fan: la creazione e la diffusione di deepfake con celebrità e influencer. Sebbene molte star abbiano pubblicamente rifiutato questo sfruttamento delle loro sembianze, la pratica continua a prosperare all’interno dei fandom online, guidata dal risparmio di attenzione e dalla volontà di oltrepassare i confini.

Gli incentivi dietro i contenuti AI

Il problema principale è semplice: i contenuti generati dall’intelligenza artificiale, inclusi immagini e video, sono facili da produrre e altamente coinvolgenti. Su piattaforme come X (ex Twitter), dove gli utenti verificati possono guadagnare denaro attraverso il coinvolgimento, i deepfake sono diventati un modo rapido per ottenere visualizzazioni ed entrate. Il proprietario di un account fan, parlando in forma anonima a The Verge, ha ammesso che i contenuti basati sull’intelligenza artificiale sono un “modo molto rapido per ottenere denaro”, nonostante la condanna diffusa.

La situazione non si limita a modifiche innocue. Celebrità come Ariana Grande e Grimes hanno criticato pubblicamente l’uso dell’intelligenza artificiale per creare copertine false, deepfake e persino contenuti sessualmente espliciti. Grimes, che inizialmente incoraggiava i fan a sperimentare musica generata dall’intelligenza artificiale basata sulla sua voce, ora chiede “trattati internazionali” per regolamentare i deepfake a causa della realtà inquietante di avere la sua somiglianza cooptata.

L’ascesa dei cameo e l’indignazione virale

Il lancio del generatore video Sora di OpenAI, con la sua funzionalità “Cameo”, ha drammaticamente aggravato il problema. I cameo consentono a chiunque di offrire la propria immagine per l’utilizzo in contenuti generati dall’intelligenza artificiale, portando a risultati prevedibilmente offensivi che sono quasi impossibili da rimuovere una volta online.

L’influencer e pugile Jake Paul, un investitore di OpenAI, ha abbracciato la tendenza, con i suoi video AI diventati virali, comprese le rappresentazioni basate su stereotipi omofobici. Mentre alcuni creatori come Paul tentano di trarre vantaggio dall’indignazione, altri si affrettano a prendere le distanze dalla reazione negativa.

Il problema principale è che anche quando piattaforme come X eliminano singoli deepfake, questi riappaiono altrove quasi immediatamente. La velocità della proliferazione rende impossibile una moderazione efficace.

Reazioni delle celebrità e violazioni dei confini

Le celebrità sono intrappolate in un doppio vincolo: condannano i deepfake e allo stesso tempo ne sono protagonisti. La star di Criminal Minds Paget Brewster è stata recentemente indotta a scusarsi con l’account di un fan per aver dato per scontato che un’immagine fosse generata dall’intelligenza artificiale, solo per scoprire che era reale. Questo incidente evidenzia la crescente ansia tra le celebrità che temono che la loro immagine venga sfruttata senza consenso.

Il problema va oltre le semplici modifiche. L’intelligenza artificiale è sempre più utilizzata per generare deepfake sessualmente espliciti, con alcuni creatori che addirittura monetizzano questi contenuti non consensuali. La situazione ha spinto X a disattivare temporaneamente le ricerche per “Taylor Swift” dopo che un’ondata di inquietanti deepfake sono diventati virali, ma le immagini hanno continuato a diffondersi su altre piattaforme.

La dinamica del potere in gioco

La normalizzazione dei deepfake si è spostata dai forum marginali alle piattaforme mainstream, e l’incentivo sottostante rimane lo stesso: il coinvolgimento. Come ha notato un fan, “Vogliono quasi farlo di più, perché sta facendo arrabbiare le persone”. Ciò suggerisce una tendenza inquietante in cui l’indignazione è deliberatamente prodotta a scopo di lucro.

La questione è aggravata dalla mancanza di un ricorso legale efficace. Le vittime spesso affrontano una dura battaglia per eliminare i deepfake e alcuni critici sostengono che leggi come il Take It Down Act potrebbero facilitare la censura senza proteggere veramente gli individui.

In definitiva, lo sfruttamento delle sembianze di celebrità nei deepfake dell’intelligenza artificiale riflette una dinamica di potere più ampia in cui il consenso viene spesso ignorato nel perseguimento del coinvolgimento. Nonostante le resistenze delle celebrità e la crescente consapevolezza dei danni causati, la tendenza non mostra segni di rallentamento.