W najnowszej wersji iPhone’a 17 i aktualizacji iOS 26 zabrakło możliwości zintegrowania ważnej funkcji uwierzytelniania obrazu, którą Google wdrożył już w swojej linii Pixel 10. Ponieważ obrazy generowane przez sztuczną inteligencję stają się coraz bardziej powszechne, rozróżnienie między treściami prawdziwymi i fałszywymi staje się ważniejsze niż kiedykolwiek.
Smartfony Google Pixel 10 są teraz wyposażone w poświadczenia treści C2PA (Coalition for Content Provenance and Authenticity), czyli niskopoziomową, ale istotną funkcję zaprojektowaną w celu wykrycia, czy obraz został utworzony lub zmodyfikowany przy użyciu sztucznej inteligencji. Rozwiązanie to stanowi odpowiedź na rosnący problem dezinformacji napędzanej sztuczną inteligencją, który nasila się wraz z szybkim postępem w technologiach generatywnych sztucznej inteligencji.
Jak działa C2PA
C2PA, pierwotnie założona przez Adobe, oznacza pliki multimedialne metadanymi wskazującymi, czy zostały wygenerowane, czy edytowane przez sztuczną inteligencję. Google jest członkiem tej koalicji. Każde zdjęcie zrobione aparatem Pixela 10 zawiera dane C2PA, a nawet zmiany wprowadzone w aplikacji Zdjęcia Google są oznaczane jako wygenerowane przez sztuczną inteligencję.
Użytkownicy mogą uzyskać dostęp do tych informacji, przesuwając palcem po obrazie w Zdjęciach Google, gdzie w nowej sekcji „Jak to powstało” wyświetla, czy zdjęcie zostało zrobione aparatem, czy zmienione przez narzędzia AI. System nie jest doskonały – niektóre treści generowane przez sztuczną inteligencję wciąż prześlizgują się przez pęknięcia – ale podstawowa funkcja pozostaje ta sama: zapewnianie weryfikowalnej niezawodności mediów cyfrowych.
Dlaczego Apple musi działać
Apple, pomimo sprzedaży milionów iPhone’ów, czyli najpopularniejszych urządzeń do przetwarzania obrazu na świecie, nie jest obecnie częścią koalicji C2PA. To stracona szansa, aby wpłynąć na zaufanie publiczne do treści cyfrowych. Firma mogłaby wdrożyć C2PA w aparatach iPhone’a 17, dodając warstwę przejrzystości na rynku zalanym potencjalnie wprowadzającymi w błąd obrazami.
Podejście Google jest bardziej ambitne: oznaczanie każdego zdjęcia danymi C2PA, niezależnie od tego, czy zastosowano sztuczną inteligencję. Celem jest nie tylko oznaczenie edytowanych obrazów, ale także normalizacja oczekiwań dotyczących weryfikowalnej wiarygodności. Według Isaaca Reynoldsa, menedżera produktu ds. aparatów Pixel w Google, celem jest „zalanie rynku tym tagiem, aby ludzie zaczęli oczekiwać tych danych”.
Szersze implikacje
Posunięcie Google nie polega na wyeliminowaniu treści generowanych przez sztuczną inteligencję – chodzi o zapewnienie odpowiedzialności. W czasach, gdy zmanipulowane obrazy mogą wpływać na wydarzenia lub ułatwiać oszustwa, umiejętność weryfikacji pochodzenia obrazu jest niezbędna. Przyjęcie przez Apple C2PA będzie znaczącym krokiem w kierunku ustanowienia nowego standardu cyfrowej autentyczności, wypychając całą branżę na wyższy poziom.
Bez takich standardów granica między rzeczywistością a fałszem staje się coraz bardziej niewyraźna, co podważa zaufanie do mediów wizualnych. Wpływ Apple na rynek może przyspieszyć przyjęcie weryfikowalnych poświadczeń dotyczących treści, dzięki czemu konsumenci będą mogli podejmować świadome decyzje dotyczące oglądanych obrazów.
