O recente lançamento do iPhone 17 da Apple e a atualização do iOS 26 perderam a oportunidade de integrar um recurso crucial para verificar a autenticidade da imagem – algo que o Google já implementou em sua linha Pixel 10. À medida que as imagens geradas por IA se tornam cada vez mais predominantes, distinguir entre conteúdo real e falso é mais importante do que nunca.
Os telefones Pixel 10 do Google agora incluem credenciais de conteúdo C2PA (Coalition for Content Provenance and Authenticity), um recurso de baixo nível, mas significativo, projetado para identificar se uma imagem foi criada ou alterada usando inteligência artificial. Isto aborda o problema crescente da desinformação impulsionada pela IA, um desafio que se acelerou juntamente com os rápidos avanços na tecnologia de IA generativa.
Como funciona o C2PA
C2PA, inicialmente fundada pela Adobe, marca mídia com metadados indicando se ela é gerada ou editada por IA. O Google é membro desta coalizão. Cada imagem capturada na câmera do Pixel 10 inclui dados C2PA, e até mesmo as edições feitas no aplicativo Google Fotos são sinalizadas como assistidas por IA.
Os usuários podem acessar essas informações deslizando para cima em uma imagem no Google Fotos, onde uma nova seção “Como isso foi feito” mostra se a imagem foi capturada com uma câmera ou modificada com ferramentas de IA. O sistema não é perfeito – parte do conteúdo gerado por IA ainda passa despercebido – mas a função principal permanece intacta: fornecer procedência verificável para mídia digital.
Por que a Apple deveria agir
A Apple, apesar de vender milhões de iPhones, os dispositivos de criação de imagens mais populares do mundo, não faz atualmente parte da coligação C2PA. Esta é uma oportunidade perdida para moldar a confiança do público nos conteúdos digitais. A empresa poderia implementar C2PA em suas câmeras do iPhone 17, adicionando uma camada de transparência a um mercado inundado com imagens potencialmente enganosas.
A abordagem do Google é mais ambiciosa: marcar todas fotos com dados C2PA, independentemente de a IA ter sido usada. O objetivo não é apenas sinalizar imagens editadas, mas normalizar a expectativa de procedência verificável. Como afirmou Isaac Reynolds, gerente de produto de câmeras Pixel do Google, a intenção é “inundar o mercado com esse rótulo para que as pessoas comecem a esperar que os dados estejam lá”.
As implicações mais amplas
Essa medida do Google não visa eliminar o conteúdo gerado por IA – trata-se de responsabilidade. Numa era em que as imagens manipuladas podem influenciar eventos ou facilitar fraudes, a capacidade de verificar a origem de uma imagem é essencial. A adoção do C2PA pela Apple representaria um passo significativo em direção ao estabelecimento de um novo padrão de autenticidade digital, forçando uma mudança mais ampla na indústria.
Sem tais padrões, a linha entre a realidade e a fabricação torna-se cada vez mais tênue, minando a confiança nos meios visuais. A influência de mercado da Apple poderia acelerar a adoção de credenciais de conteúdo verificáveis, garantindo que os consumidores possam fazer julgamentos informados sobre as imagens que encontram.






























