De afgelopen twee jaar heeft de ontwikkeling van AI grotendeels volgens een ‘staatloos’ model gewerkt: prompts erin, reacties eruit, geen geheugen tussen beurten. Dit werkte voor eenvoudige chatbots, maar het is nu een groot knelpunt voor complexere agenten die een langetermijngeheugen, gereedschapsgebruik en uitgebreid redeneren vereisen. Vorige week lanceerde Google DeepMind de publieke bèta van de Interactions API, een oplossing die is ontworpen om deze fundamentele infrastructuurkloof aan te pakken.
Deze stap markeert een strategische verschuiving van het behandelen van Large Language Models (LLM’s) als eenvoudige tekstgeneratoren naar het beheer ervan als externe besturingssystemen met een persistente status. OpenAI zette de eerste stap met zijn Responses API in maart 2025, maar de intrede van Google versterkt de richting van de industrie naar ‘stateful’ AI.
De verschuiving naar stateful AI: waarom het ertoe doet
De traditionele staatloze aanpak dwong ontwikkelaars om de gespreksgeschiedenis handmatig te beheren, waarbij bij elk verzoek potentieel enorme JSON-bestanden werden verzonden. De Interactions API elimineert dit door statusserverzijde op te slaan; ontwikkelaars geven eenvoudigweg een previous_interaction_id op, en Google doet de rest. Zoals Ali Çevik en Philipp Schmid van DeepMind uitleggen, zou het forceren van deze mogelijkheden in het oude ‘generateContent’ eindpunt een onstabiele en te complexe API hebben gecreëerd.
Hiermee wordt Background Execution ontgrendeld, een cruciale functie voor autonome agenten. Workflows waarvoor voorheen een time-out plaatsvond vanwege HTTP-limieten, kunnen nu op de achtergrond worden uitgevoerd, terwijl ontwikkelaars later om resultaten vragen. De API wordt in feite een intelligente taakwachtrij.
Belangrijkste kenmerken: Diepgaand onderzoek en MCP-ondersteuning
Google maakt gebruik van deze nieuwe infrastructuur om zijn eerste ingebouwde agent te introduceren: Gemini Deep Research. Deze agent voert onderzoekstaken over de lange horizon uit en synthetiseert informatie door middel van iteratieve zoekopdrachten en metingen – in tegenstelling tot modellen die eenvoudigweg het volgende token voorspellen.
Even belangrijk is de omarming door Google van het Model Context Protocol (MCP). Hierdoor kunnen Gemini-modellen externe tools (zoals weerdiensten of databases) oproepen zonder aangepaste integratiecode, waardoor de workflows worden gestroomlijnd.
Google versus OpenAI: twee benaderingen van staatsbeheer
Hoewel zowel Google als OpenAI hetzelfde probleem oplossen – context-bloat – verschillen hun benaderingen aanzienlijk. OpenAI geeft prioriteit aan token-efficiëntie via Compaction, waarbij de gespreksgeschiedenis wordt gecomprimeerd in ondoorzichtige, gecodeerde items. Hierdoor ontstaat een “black box” waarin de redenering van het model verborgen is.
Google bewaart daarentegen de volledige gespreksgeschiedenis, waardoor inspectie, manipulatie en foutopsporing mogelijk zijn. Het datamodel is transparant en geeft prioriteit aan composability boven compressie.
Ondersteunde modellen en prijzen
De Interactions API is nu beschikbaar in publieke bèta via Google AI Studio en ondersteunt:
- Gemini 3.0: Gemini 3 Pro-voorbeeld.
- Gemini 2.5: Flash, Flash-lite en Pro.
- Agenten: Deep Research Preview (deep-research-pro-preview-12-2025).
De prijzen volgen de standaard tokentarieven van Google, maar het nieuwe beleid voor het bewaren van gegevens verandert de economie. De Free Tier biedt slechts 1 dag retentie, terwijl de Paid Tier dit verlengt tot 55 dagen. Deze uitgebreide retentie verlaagt de totale kosten door het maximaliseren van cachehits, omdat terugkerende gebruikers het opnieuw verwerken van enorme contextvensters vermijden.
Opmerking: Dit is een bètaversie, dus verwacht belangrijke wijzigingen.
Implicaties voor teams: efficiëntie en risico’s
Voor AI-ingenieurs biedt de Interactions API een directe oplossing voor time-outproblemen via Achtergronduitvoering. In plaats van aangepaste asynchrone handlers te bouwen, kunt u de complexiteit overbrengen naar Google. Dit gemak ruilt echter controle in voor snelheid: de Deep Research-agent is een ‘black box’ vergeleken met aangepaste LangChain- of LangGraph-stromen.
Senior engineers die budgetten beheren, zullen profiteren van impliciete caching. Door gebruik te maken van de status aan de serverzijde vermijdt u tokenkosten die gepaard gaan met het opnieuw uploaden van context. Maar het integreren van MCP betekent het valideren van de veiligheid van tools op afstand.
Data-ingenieurs zullen het gestructureerde datamodel waarderen, waardoor de algehele pijplijnintegriteit wordt verbeterd. De huidige Deep Research-agent retourneert echter ‘verpakte’ URL’s die mogelijk verlopen, waardoor opschoonstappen in ETL-pijplijnen nodig zijn.
Ten slotte moeten IT-beveiligingsdirecteuren de afwegingen van een gecentraliseerde staat afwegen: verbeterde beveiliging versus nieuwe risico’s op het gebied van datalocatie. Het bewaarbeleid van Google (1 dag gratis, 55 dagen voor betaald) is van cruciaal belang om te overwegen.
Concluderend is de Interactions API van Google een fundamentele verandering in de manier waarop AI-agents worden gebouwd. Door voorrang te geven aan staatsbeheer en uitvoering op de achtergrond, levert dit aanzienlijke efficiëntiewinst op, maar introduceert het ook nieuwe overwegingen op het gebied van controle, transparantie en gegevensbeveiliging. Dit markeert een duidelijke evolutie in de ontwikkelaarsstapel, die verder gaat dan eenvoudige tekst-in, tekst-uit-interacties naar echte intelligentie op systeemniveau.






























