OpenAI ha rilasciato i suoi ultimi modelli linguistici, GPT 5.4 Thinking e GPT 5.4 Pro, con particolare attenzione alla maggiore precisione ed efficienza per gli agenti AI. La mossa arriva mentre la società cerca di contrastare la crescente concorrenza di Claude di Anthropic, soprattutto perché gli utenti esplorano sempre più alternative a causa delle controversie sulle pratiche di OpenAI e sui contratti governativi.
Precisione e funzionalità agenti migliorate
GPT 5.4 Thinking è progettato specificamente per attività complesse come la codifica e il funzionamento autonomo dell’IA. A differenza dei modelli precedenti, dà priorità alla precisione rispetto alla velocità, impiegando più tempo per generare risposte ma fornendo risultati più affidabili. OpenAI afferma che GPT 5.4 è il suo “modello più fattuale finora”, riducendo il rischio di falsità generate dall’intelligenza artificiale del 18% rispetto a GPT 5.2. Secondo i benchmark di OpenAI, le singole affermazioni hanno ora il 33% in meno di probabilità di essere false. Nonostante questi miglioramenti, si consiglia comunque agli utenti di verificare tutti i contenuti generati dall’intelligenza artificiale.
Il modello è ottimizzato per l’attività degli agenti, il che significa che consuma meno potenza di calcolo e riduce i costi per gli sviluppatori che implementano agenti IA. Sia GPT 5.4 Thinking che Pro sono disponibili per gli abbonati ChatGPT a pagamento e tramite l’API OpenAI, con GPT 5.4 Thinking integrato anche nell’applicazione di codifica Codex.
L’ascesa di Claude e i contratti governativi
Il rilascio di GPT 5.4 da parte di OpenAI sembra essere una risposta diretta alla crescente quota di mercato di Anthropic, in particolare dopo che le app mobili di Claude hanno superato le classifiche degli app store. Molti utenti di intelligenza artificiale stanno ora migrando attivamente i dati da ChatGPT a Claude, spinti dall’insoddisfazione per le politiche di OpenAI e dalla crescente faida tra le due società.
Il conflitto si estende oltre il settore tecnologico, come dimostrano le recenti negoziazioni contrattuali con il Dipartimento della Guerra degli Stati Uniti (ex Dipartimento della Difesa). Secondo quanto riferito, Anthropic ha rifiutato un accordo che avrebbe consentito al governo di utilizzare la sua intelligenza artificiale per la sorveglianza di massa e sistemi d’arma autonomi. Questa decisione allinea ulteriormente Anthropic alle preoccupazioni sulla privacy degli utenti, mentre la volontà di OpenAI di collaborare su tali progetti rimane poco chiara.
Implicazioni per lo sviluppo dell’intelligenza artificiale
Il lancio di GPT 5.4 sottolinea la crescente sofisticazione dei modelli di intelligenza artificiale e il loro ruolo crescente nelle applicazioni aziendali. L’attenzione alle capacità degli agenti suggerisce un futuro in cui i sistemi di intelligenza artificiale operano in modo più indipendente, richiedendo maggiore affidabilità ed efficienza in termini di costi. Tuttavia, il dibattito in corso sull’etica dell’IA e sulla sorveglianza governativa solleva questioni fondamentali sullo sviluppo e l’impiego responsabile di queste tecnologie.
Gli ultimi modelli di OpenAI rappresentano un passo avanti nell’accuratezza dell’IA, ma il contesto più ampio della concorrenza industriale e dei contratti governativi evidenzia la necessità di trasparenza e considerazioni etiche nel perseguimento di capacità avanzate di intelligenza artificiale.
