API Interactions di Google: una nuova era per lo sviluppo dell’intelligenza artificiale

13

Negli ultimi due anni, lo sviluppo dell’intelligenza artificiale ha operato in gran parte secondo un modello “senza stato”: prompt in entrata, risposte in uscita, nessuna memoria tra un turno e l’altro. Questo ha funzionato per i chatbot di base, ma ora rappresenta un grosso collo di bottiglia per gli agenti più complessi che richiedono memoria a lungo termine, uso di strumenti e ragionamento esteso. La settimana scorsa, Google DeepMind ha lanciato la beta pubblica dell’Interactions API, una soluzione progettata per colmare questa fondamentale lacuna infrastrutturale.

Questa mossa segnala un passaggio strategico dal trattare i Large Language Models (LLM) come semplici generatori di testo alla loro gestione come sistemi operativi remoti con stato persistente. OpenAI ha compiuto il primo passo con la sua API Responses nel marzo 2025, ma l’ingresso di Google rafforza la direzione del settore verso l’IA “stateful”.

Il passaggio all’intelligenza artificiale con stato: perché è importante

Il tradizionale approccio stateless ha costretto gli sviluppatori a gestire manualmente la cronologia delle conversazioni, inviando file JSON potenzialmente di grandi dimensioni con ogni richiesta. L’API Interactions elimina questo problema memorizzando lo stato lato server; gli sviluppatori forniscono semplicemente un previous_interaction_id e Google si occupa del resto. Come spiegano Ali Çevik e Philipp Schmid di DeepMind, forzare queste funzionalità nel vecchio endpoint “generateContent” avrebbe creato un’API instabile ed eccessivamente complessa.

Ciò sblocca l’Esecuzione in background, una funzionalità cruciale per gli agenti autonomi. I flussi di lavoro che in precedenza andavano in timeout a causa dei limiti HTTP ora possono essere eseguiti in background, con gli sviluppatori che effettuano il polling dei risultati in un secondo momento. L’API diventa effettivamente una coda di lavoro intelligente.

Caratteristiche principali: Ricerca approfondita e supporto MCP

Google sta sfruttando questa nuova infrastruttura per introdurre il suo primo agente integrato: Gemini Deep Research. Questo agente esegue compiti di ricerca a lungo orizzonte, sintetizzando le informazioni attraverso ricerche e letture iterative, a differenza dei modelli che prevedono semplicemente il token successivo.

Altrettanto importante è l’adozione da parte di Google del Model Context Protocol (MCP). Ciò consente ai modelli Gemini di chiamare strumenti esterni (come servizi meteorologici o database) senza codice di integrazione personalizzato, semplificando i flussi di lavoro.

Google contro OpenAI: due approcci alla gestione dello stato

Sebbene sia Google che OpenAI stiano risolvendo lo stesso problema – il gonfiamento del contesto – i loro approcci differiscono in modo significativo. OpenAI dà priorità all’efficienza dei token tramite la compattazione, comprimendo la cronologia delle conversazioni in elementi opachi e crittografati. Questo crea una “scatola nera” in cui è nascosto il ragionamento del modello.

Google, al contrario, conserva la cronologia completa delle conversazioni, consentendone l’ispezione, la manipolazione e il debug. Il modello dati è trasparente e dà priorità alla componibilità rispetto alla compressione.

Modelli e prezzi supportati

L’API Interactions è ora disponibile in versione beta pubblica tramite Google AI Studio, supportando:

  • Gemini 3.0: Anteprima di Gemini 3 Pro.
  • Gemini 2.5: Flash, Flash-lite e Pro.
  • Agenti: Anteprima di Deep Research (deep-research-pro-preview-12-2025).

I prezzi seguono le tariffe dei token standard di Google, ma le nuove politiche di conservazione dei dati cambiano l’economia. Il livello gratuito offre solo 1 giorno di conservazione, mentre il livello a pagamento lo estende a 55 giorni. Questa conservazione estesa riduce i costi totali massimizzando gli accessi alla cache, poiché gli utenti ricorrenti evitano di rielaborare enormi finestre di contesto.

Nota: Questa è una versione beta, quindi aspettati modifiche importanti.

Implicazioni per i team: efficienza e rischi

Per gli ingegneri dell’intelligenza artificiale, l’API Interactions offre una soluzione diretta ai problemi di timeout tramite l’esecuzione in background. Invece di creare gestori asincroni personalizzati, puoi scaricare la complessità su Google. Tuttavia, questa comodità baratta il controllo con la velocità: l’agente Deep Research è una “scatola nera” rispetto ai flussi personalizzati LangChain o LangGraph.

Gli ingegneri senior che gestiscono i budget trarranno vantaggio dalla memorizzazione nella cache implicita. Sfruttando lo stato lato server, eviti i costi dei token associati al contesto di ricaricamento. Ma integrare MCP significa convalidare la sicurezza degli strumenti remoti.

Gli ingegneri dei dati apprezzeranno il modello di dati strutturati, che migliora l’integrità complessiva della pipeline. Tuttavia, l’attuale agente Deep Research restituisce URL “avvolti” che potrebbero scadere, richiedendo passaggi di pulizia nelle pipeline ETL.

Infine, i direttori della sicurezza IT devono valutare i compromessi di uno stato centralizzato: maggiore sicurezza rispetto ai nuovi rischi legati alla residenza dei dati. I criteri di conservazione di Google (1 giorno gratis, 55 giorni a pagamento) sono fondamentali da considerare.

In conclusione, l’API Interactions di Google rappresenta un cambiamento fondamentale nel modo in cui vengono costruiti gli agenti AI. Dando priorità alla gestione dello stato e all’esecuzione in background, offre significativi miglioramenti in termini di efficienza, ma introduce anche nuove considerazioni per il controllo, la trasparenza e la sicurezza dei dati. Ciò segna una chiara evoluzione nello stack degli sviluppatori, andando oltre le semplici interazioni di input e output di testo verso una vera intelligenza a livello di sistema.