Durante los últimos dos años, el desarrollo de la IA ha operado en gran medida según un modelo “sin estado”: mensajes que entran, respuestas que salen, sin memoria entre turnos. Esto funcionó para los chatbots básicos, pero ahora es un cuello de botella importante para agentes más complejos que requieren memoria a largo plazo, uso de herramientas y razonamiento extendido. La semana pasada, Google DeepMind lanzó la versión beta pública de Interactions API, una solución diseñada para abordar esta brecha fundamental de infraestructura.
Este movimiento señala un cambio estratégico de tratar los modelos de lenguaje grande (LLM) como simples generadores de texto a administrarlos como sistemas operativos remotos con estado persistente. OpenAI dio el primer paso con su API Responses en marzo de 2025, pero la entrada de Google refuerza la dirección de la industria hacia la IA “con estado”.
El cambio a la IA con estado: por qué es importante
El enfoque tradicional sin estado obligó a los desarrolladores a administrar manualmente los historiales de conversaciones, enviando archivos JSON potencialmente masivos con cada solicitud. La API de Interactions elimina esto al almacenar el estado del lado del servidor; los desarrolladores simplemente proporcionan un previous_interaction_id y Google se encarga del resto. Como explican Ali Çevik y Philipp Schmid de DeepMind, forzar estas capacidades en el antiguo punto final “generateContent” habría creado una API inestable y demasiado compleja.
Esto desbloquea la Ejecución en segundo plano, una característica crucial para los agentes autónomos. Los flujos de trabajo que anteriormente caducaban debido a límites de HTTP ahora pueden ejecutarse en segundo plano y los desarrolladores realizan encuestas para obtener los resultados más adelante. La API se convierte efectivamente en una cola de trabajos inteligente.
Características clave: investigación profunda y soporte MCP
Google está aprovechando esta nueva infraestructura para presentar su primer agente integrado: Gemini Deep Research. Este agente realiza tareas de investigación a largo plazo, sintetizando información a través de búsquedas y lecturas iterativas, a diferencia de los modelos que simplemente predicen el siguiente token.
Igualmente importante es la adopción por parte de Google del Protocolo de contexto modelo (MCP). Esto permite a los modelos Gemini llamar a herramientas externas (como servicios meteorológicos o bases de datos) sin un código de integración personalizado, lo que agiliza los flujos de trabajo.
Google versus OpenAI: dos enfoques para la gestión estatal
Si bien tanto Google como OpenAI están resolviendo el mismo problema (el exceso de contexto), sus enfoques difieren significativamente. OpenAI prioriza la eficiencia de los tokens a través de la Compactación, comprimiendo el historial de conversaciones en elementos opacos y cifrados. Esto crea una “caja negra” donde se oculta el razonamiento del modelo.
Google, por el contrario, conserva el historial de conversaciones completo, lo que permite inspección, manipulación y depuración. El modelo de datos es transparente y prioriza la componibilidad sobre la compresión.
Modelos compatibles y precios
La API de Interactions ahora está disponible en versión beta pública a través de Google AI Studio y admite:
- Gemini 3.0: Vista previa de Gemini 3 Pro.
- Géminis 2.5: Flash, Flash-lite y Pro.
- Agentes: Vista previa de investigación profunda (deep-research-pro-preview-12-2025).
Los precios siguen las tarifas simbólicas estándar de Google, pero las nuevas políticas de retención de datos cambian la economía. La capa gratuita ofrece solo 1 día de retención, mientras que la capa paga la extiende a 55 días. Esta retención extendida reduce los costos totales al maximizar los accesos a la caché, ya que los usuarios recurrentes evitan volver a procesar ventanas de contexto masivas.
Nota: Esta es una versión Beta, así que espere cambios importantes.
Implicaciones para los equipos: eficiencia y riesgos
Para los ingenieros de IA, la API de Interactions ofrece una solución directa a los problemas de tiempo de espera mediante la ejecución en segundo plano. En lugar de crear controladores asincrónicos personalizados, puede descargar la complejidad a Google. Sin embargo, esta conveniencia cambia el control por la velocidad: el agente Deep Research es una “caja negra” en comparación con los flujos personalizados de LangChain o LangGraph.
Los ingenieros superiores que gestionan presupuestos se beneficiarán del almacenamiento en caché implícito. Al aprovechar el estado del lado del servidor, evita los costos de token asociados con la recarga del contexto. Pero integrar MCP significa validar la seguridad de las herramientas remotas.
Los ingenieros de datos apreciarán el modelo de datos estructurados, que mejora la integridad general de la canalización. Sin embargo, el agente actual de Deep Research devuelve URL “envueltas” que pueden caducar, lo que requiere pasos de limpieza en las canalizaciones ETL.
Finalmente, los directores de seguridad de TI deben sopesar las ventajas y desventajas del estado centralizado: seguridad mejorada versus nuevos riesgos de residencia de datos. Es fundamental tener en cuenta las políticas de retención de Google (1 día gratis, 55 días pago).
En conclusión, la API de Interacciones de Google es un cambio fundamental en la forma en que se crean los agentes de IA. Al priorizar la gestión estatal y la ejecución en segundo plano, ofrece importantes ganancias de eficiencia, pero también introduce nuevas consideraciones para el control, la transparencia y la seguridad de los datos. Esto marca una clara evolución en la pila de desarrolladores, yendo más allá de simples interacciones de entrada y salida de texto hacia una verdadera inteligencia a nivel de sistema.






























