Les fandoms exploitent les Deepfakes de l’IA malgré les réactions négatives des célébrités

18

L’essor de l’intelligence artificielle a ouvert une nouvelle frontière dans la culture des fans : la création et la diffusion de deepfakes mettant en vedette des célébrités et des influenceurs. Alors que de nombreuses stars ont publiquement rejeté cette exploitation de leur image, cette pratique continue de prospérer au sein des fandoms en ligne, motivée par les économies d’attention et la volonté de repousser les limites.

Les incitations derrière le contenu IA

Le problème principal est simple : le contenu généré par l’IA, y compris les images et les vidéos, est facile à produire et très engageant. Sur des plateformes comme X (anciennement Twitter), où les utilisateurs vérifiés peuvent gagner de l’argent grâce à leur engagement, les deepfakes sont devenus un moyen rapide d’exploiter des vues et des revenus. Un propriétaire de compte fan, s’adressant anonymement à The Verge, a admis que le contenu de l’IA est un « moyen très rapide d’obtenir de l’argent », malgré une condamnation généralisée.

La situation ne se limite pas à des modifications inoffensives. Des célébrités comme Ariana Grande et Grimes ont publiquement critiqué l’utilisation de l’IA pour créer de fausses couvertures, des deepfakes et même du contenu sexuellement explicite. Grimes, qui a initialement encouragé ses fans à expérimenter la musique générée par l’IA basée sur sa voix, appelle désormais à des « traités internationaux » pour réglementer les deepfakes en raison de la réalité troublante de la cooptation de son image.

La montée des camées et l’indignation virale

Le lancement du générateur vidéo Sora d’OpenAI, avec sa fonctionnalité « Cameos », a considérablement aggravé le problème. Les camées permettent à quiconque de proposer son image pour l’utiliser dans du contenu généré par l’IA, ce qui conduit à des résultats offensants prévisibles et presque impossibles à supprimer une fois en ligne.

L’influenceur et boxeur Jake Paul, un investisseur d’OpenAI, a adopté la tendance, avec des vidéos d’IA le montrant devenant virales, y compris des représentations s’appuyant sur des stéréotypes homophobes. Alors que certains créateurs comme Paul tentent de capitaliser sur l’indignation, d’autres s’efforcent de se distancier des réactions négatives.

Le principal problème est que même lorsque des plateformes comme X suppriment des deepfakes individuels, ils réapparaissent presque immédiatement ailleurs. La rapidité de la prolifération rend impossible une modération efficace.

Réactions de célébrités et violations des limites

Les célébrités sont prises dans une double impasse : elles condamnent les deepfakes tout en y figurant en bonne place. La star d’Esprits criminels, Paget Brewster, a récemment été amenée à s’excuser auprès d’un compte de fan pour avoir supposé qu’une image avait été générée par l’IA, pour ensuite découvrir qu’elle était réelle. Cet incident met en lumière l’anxiété croissante des célébrités qui craignent que leur image soit exploitée sans leur consentement.

Le problème va au-delà des simples modifications. L’IA est de plus en plus utilisée pour générer des deepfakes sexuellement explicites, certains créateurs monétisant même ce contenu non consensuel. La situation a incité X à désactiver temporairement les recherches sur “Taylor Swift” après qu’une vague de deepfakes inquiétants soit devenue virale, mais les images ont continué à se propager sur d’autres plateformes.

La dynamique du pouvoir en jeu

La normalisation des deepfakes est passée des forums marginaux aux plateformes grand public, et l’incitation sous-jacente reste la même : l’engagement. Comme l’a noté un fan : « Ils veulent presque en faire plus, parce que cela énerve les gens. » Cela suggère une tendance inquiétante selon laquelle l’indignation est délibérément fabriquée dans un but lucratif.

Le problème est exacerbé par le manque de recours juridiques efficaces. Les victimes sont souvent confrontées à une bataille difficile pour éliminer les deepfakes, et certains critiques affirment que des lois telles que le Take It Down Act peuvent faciliter la censure sans véritablement protéger les individus.

En fin de compte, l’exploitation des ressemblances de célébrités dans les deepfakes de l’IA reflète une dynamique de pouvoir plus large dans laquelle le consentement est souvent ignoré dans la poursuite de l’engagement. Malgré la réticence des célébrités et la prise de conscience croissante des dommages causés, la tendance ne montre aucun signe de ralentissement.