Apple est à la traîne de Google en termes d’authenticité des images AI

6

La récente version de l’iPhone 17 d’Apple et la mise à jour iOS 26 ont raté une occasion d’intégrer une fonctionnalité cruciale pour vérifier l’authenticité de l’image, quelque chose que Google a déjà implémenté dans sa gamme Pixel 10. Alors que les images générées par l’IA deviennent de plus en plus répandues, il est plus important que jamais de faire la distinction entre le contenu réel et le faux.

Les téléphones Pixel 10 de Google incluent désormais les informations d’identification de contenu C2PA (Coalition for Content Provenance and Authenticity), une fonctionnalité de bas niveau mais importante conçue pour identifier si une image a été créée ou modifiée à l’aide de l’intelligence artificielle. Cela répond au problème croissant de la désinformation induite par l’IA, un défi qui s’est accéléré parallèlement aux progrès rapides de la technologie de l’IA générative.

Comment fonctionne le C2PA

C2PA, initialement fondé par Adobe, balise les médias avec des métadonnées indiquant s’ils sont générés ou modifiés par l’IA. Google est membre de cette coalition. Chaque image capturée sur l’appareil photo Pixel 10 inclut des données C2PA, et même les modifications apportées dans l’application Google Photos sont signalées comme étant assistées par l’IA.

Les utilisateurs peuvent accéder à ces informations en faisant glisser vers le haut une image dans Google Photos, où une nouvelle section « Comment cela a été réalisé » indique si l’image a été capturée avec un appareil photo ou modifiée avec des outils d’IA. Le système n’est pas parfait – certains contenus générés par l’IA passent encore entre les mailles du filet – mais la fonction principale reste intacte : fournir une provenance vérifiable pour les médias numériques.

Pourquoi Apple devrait agir

Apple, bien qu’il ait vendu des millions d’iPhones, les appareils de création d’images les plus populaires au monde, ne fait pas actuellement partie de la coalition C2PA. Il s’agit d’une occasion manquée de façonner la confiance du public dans le contenu numérique. L’entreprise pourrait implémenter C2PA dans ses caméras iPhone 17, ajoutant ainsi une couche de transparence à un marché inondé d’images potentiellement trompeuses.

L’approche de Google est plus ambitieuse : marquer chaque photo avec des données C2PA, que l’IA ait été utilisée ou non. L’objectif n’est pas seulement de signaler les images modifiées, mais de normaliser l’attente d’une provenance vérifiable. Comme l’a déclaré Isaac Reynolds, chef de produit des caméras Pixel de Google, l’intention est “d’inonder le marché avec cette étiquette afin que les gens commencent à s’attendre à ce que les données soient là”.

Les implications plus larges

Cette décision de Google ne vise pas à éliminer le contenu généré par l’IA, mais plutôt à rendre des comptes. À une époque où les images manipulées peuvent influencer les événements ou faciliter les escroqueries, la capacité de vérifier l’origine d’une image est essentielle. L’adoption par Apple du C2PA représenterait une étape importante vers l’établissement d’une nouvelle norme d’authenticité numérique, obligeant un changement plus large dans l’industrie.

Sans ces normes, la frontière entre réalité et fabrication devient de plus en plus floue, érodant la confiance dans les médias visuels. L’influence d’Apple sur le marché pourrait accélérer l’adoption d’informations d’identification de contenu vérifiables, garantissant ainsi que les consommateurs puissent porter un jugement éclairé sur les images qu’ils rencontrent.