La recente versione di iPhone 17 di Apple e l’aggiornamento di iOS 26 hanno perso l’occasione di integrare una funzionalità cruciale per verificare l’autenticità delle immagini, qualcosa che Google ha già implementato nella sua linea Pixel 10. Poiché le immagini generate dall’intelligenza artificiale diventano sempre più diffuse, distinguere tra contenuti reali e falsi è più importante che mai.
I telefoni Pixel 10 di Google ora includono le credenziali di contenuto C2PA (Coalition for Content Provenance and Authenticity), una funzionalità di basso livello ma significativa progettata per identificare se un’immagine è stata creata o alterata utilizzando l’intelligenza artificiale. Ciò affronta il crescente problema della disinformazione guidata dall’intelligenza artificiale, una sfida che ha subito un’accelerazione insieme ai rapidi progressi nella tecnologia dell’intelligenza artificiale generativa.
Come funziona C2PA
C2PA, inizialmente fondata da Adobe, tagga i media con metadati che indicano se sono generati o modificati dall’intelligenza artificiale. Google è un membro di questa coalizione. Ogni immagine catturata dalla fotocamera Pixel 10 include dati C2PA e anche le modifiche apportate nell’app Google Foto vengono contrassegnate come assistite dall’intelligenza artificiale.
Gli utenti possono accedere a queste informazioni scorrendo verso l’alto su un’immagine in Google Foto, dove una nuova sezione “Come è stata realizzata” mostra se l’immagine è stata catturata con una fotocamera o modificata con strumenti di intelligenza artificiale. Il sistema non è perfetto – alcuni contenuti generati dall’intelligenza artificiale continuano a sfuggire – ma la funzione principale rimane intatta: fornire una provenienza verificabile per i media digitali.
Perché Apple dovrebbe agire
Apple, nonostante abbia venduto milioni di iPhone, i dispositivi per la creazione di immagini più famosi al mondo, non fa attualmente parte della coalizione C2PA. Si tratta di un’occasione mancata per plasmare la fiducia del pubblico nei contenuti digitali. L’azienda potrebbe implementare C2PA nelle fotocamere dell’iPhone 17, aggiungendo un livello di trasparenza a un mercato inondato di immagini potenzialmente fuorvianti.
L’approccio di Google è più ambizioso: taggare ogni foto con dati C2PA, indipendentemente dal fatto che sia stata utilizzata l’intelligenza artificiale. L’obiettivo non è solo contrassegnare le immagini modificate, ma normalizzare l’aspettativa di provenienza verificabile. Come ha affermato Isaac Reynolds, product manager delle fotocamere Pixel di Google, l’intenzione è quella di “inondare il mercato con questa etichetta in modo che le persone inizino ad aspettarsi che i dati siano lì”.
Le implicazioni più ampie
Questa mossa di Google non riguarda l’eliminazione dei contenuti generati dall’intelligenza artificiale, ma una questione di responsabilità. In un’epoca in cui le immagini manipolate possono influenzare gli eventi o facilitare le truffe, la capacità di verificare l’origine di un’immagine è essenziale. L’adozione di C2PA da parte di Apple rappresenterebbe un passo significativo verso la creazione di un nuovo standard per l’autenticità digitale, imponendo un cambiamento più ampio nel settore.
Senza tali standard, il confine tra realtà e invenzione diventa sempre più sfumato, erodendo la fiducia nei media visivi. L’influenza del mercato di Apple potrebbe accelerare l’adozione di credenziali di contenuto verificabili, garantendo che i consumatori possano esprimere giudizi informati sulle immagini che incontrano.
