OpenAI wprowadza GPT 5.4: nowy model przeznaczony dla agentów AI

13

OpenAI wypuściło swoje najnowsze modele językowe, GPT 5.4 Thinking i GPT 5.4 Pro, skupiając się na zwiększonej dokładności i wydajności agentów AI. Posunięcie to jest odpowiedzią na rosnącą konkurencję ze strony Claude’a z Anthropic, zwłaszcza że użytkownicy coraz częściej szukają alternatyw ze względu na kontrowersje wokół praktyk OpenAI i kontraktów rządowych.

Zwiększona dokładność i możliwości agenta

GPT 5.4 Thinking zostało zaprojektowane specjalnie do złożonych zadań, takich jak programowanie i autonomiczne uruchamianie sztucznej inteligencji. W przeciwieństwie do poprzednich modeli, stawia on dokładność ponad szybkość, poświęcając więcej czasu na generowanie odpowiedzi, ale zapewniając bardziej wiarygodne wyniki. OpenAI twierdzi, że GPT 5.4 to „najbardziej faktyczny model w dotychczasowej historii”, zmniejszający ryzyko fałszywych danych generowanych przez sztuczną inteligencję o 18% w porównaniu z GPT 5.2. Według testów OpenAI pojedyncze stwierdzenia są teraz o 33% mniej prawdopodobne, że będą fałszywe. Pomimo tych ulepszeń użytkownikom nadal zaleca się weryfikację wszystkich danych wygenerowanych przez sztuczną inteligencję.

Model jest zoptymalizowany pod kątem aktywności agentów, co oznacza mniejszą moc obliczeniową i niższe koszty dla programistów wdrażających agentów AI. Zarówno GPT 5.4 Thinking, jak i Pro są dostępne dla płatnych subskrybentów ChatGPT, a także za pośrednictwem OpenAI API, przy czym GPT 5.4 Thinking jest również zintegrowany z aplikacją do kodowania Codex.

Rozwój kontraktów Claude i rządowych

Wydanie przez OpenAI GPT 5.4 wygląda na bezpośrednią reakcję na rosnący udział Anthropic w rynku, zwłaszcza po tym, jak aplikacje mobilne Claude’a zajęły czołowe pozycje w sklepach z aplikacjami. Wielu użytkowników AI aktywnie migruje obecnie dane z ChatGPT do Claude, kierując się niezadowoleniem z polityki OpenAI i eskalacją konfliktu między obiema firmami.

Jak pokazują niedawne negocjacje kontraktowe z Departamentem Wojny USA (dawniej Departamentem Obrony), kontrowersje wykraczają poza sektor technologiczny. Anthropic rzekomo odrzuciła propozycję, która umożliwiłaby rządowi wykorzystanie sztucznej inteligencji do masowego nadzoru i autonomicznych systemów uzbrojenia. Decyzja ta jeszcze bardziej przybliża firmę Anthropic do kwestii związanych z prywatnością użytkowników w czasie, gdy chęć OpenAI do współpracy przy takich projektach pozostaje niejasna.

Konsekwencje dla rozwoju sztucznej inteligencji

Premiera GPT 5.4 podkreśla rosnącą złożoność modeli sztucznej inteligencji i ich rosnącą rolę w aplikacjach korporacyjnych. Nacisk na zdolności agentywne przewiduje przyszłość, w której systemy sztucznej inteligencji będą działać bardziej niezależnie, co wymaga większej niezawodności i opłacalności. Jednak trwające debaty na temat etyki sztucznej inteligencji i nadzoru rządowego rodzą podstawowe pytania dotyczące odpowiedzialnego rozwoju i wdrażania tych technologii.

Najnowsze modele OpenAI stanowią krok naprzód w zakresie precyzji sztucznej inteligencji, ale szerszy kontekst konkurencji branżowej i kontraktów rządowych podkreśla potrzebę przejrzystości i względów etycznych w dążeniu do najnowocześniejszych możliwości sztucznej inteligencji.