додому Últimas noticias y artículos Random Labs lanza Slate V1: el primer agente de codificación “nativo de...

Random Labs lanza Slate V1: el primer agente de codificación “nativo de Swarm”

El panorama de la inteligencia artificial está cambiando. Si bien los modelos de lenguajes grandes (LLM) demuestran capacidades brutas impresionantes, traducir ese poder en una productividad consistente y real sigue siendo un desafío importante. El cuello de botella no es la inteligencia, sino administrar la inteligencia de manera efectiva, especialmente para tareas de ingeniería complejas y de largo plazo. La startup Random Labs, con sede en San Francisco, respaldada por Y Combinator, cree que tiene una solución: Slate V1, el primer agente de codificación autónomo “nativo de enjambre”.

El problema de los sistemas y el auge de los flujos de trabajo agentes

Durante años, las herramientas de codificación asistidas por IA han tenido problemas con las ventanas de contexto y para mantener la coherencia en proyectos extensos. Simplemente lanzar un LLM potente en una base de código compleja a menudo da como resultado resultados fragmentados y poco confiables. Slate aborda esto implementando un enfoque fundamentalmente diferente: un marco de ejecución paralelo y distribuido inspirado en las mentes de colmenas biológicas y el diseño de sistemas operativos.

Cómo funciona el “tejido de hilos” de Slate

Slate no trata los modelos de IA como solucionadores de problemas monolíticos. En cambio, divide las tareas en “subprocesos” discretos y manejables que se envían a agentes trabajadores especializados, utilizando potencialmente diferentes LLM para diferentes pasos. Esto aprovecha lo que Random Labs llama “Sobrante de conocimiento”: el potencial sin explotar de los modelos cuando no están sobrecargados con demandas estratégicas y tácticas simultáneas.

El sistema utiliza un lenguaje específico de dominio (DSL) basado en TypeScript para orquestar estos subprocesos, actuando como un “núcleo” central que gestiona el flujo de ejecución mientras los “procesos” de trabajo manejan operaciones específicas. Esto refleja un sistema operativo, que trata la ventana de contexto limitada del LLM como una RAM preciosa que debe administrarse de manera inteligente.

Memoria episódica y ejecución paralela

Una innovación clave es el sistema de “memoria episódica” de Slate. A diferencia de las herramientas tradicionales de IA que se basan en la compresión con pérdida de interacciones pasadas, Slate comprime solo las llamadas y conclusiones de herramientas exitosas en resúmenes concisos. Estos resúmenes se comparten directamente con el orquestador, manteniendo una inteligencia de “enjambre” coherente.

Esta arquitectura permite un paralelismo masivo. Un desarrollador puede, por ejemplo, hacer que Claude Sonnet orqueste una refactorización compleja mientras GPT-5.4 ejecuta código y GLM 5 investiga la documentación simultáneamente. Esta implementación selectiva de modelos garantiza la rentabilidad: utilizar modelos de alta potencia solo cuando se necesita su profundidad estratégica y modelos más baratos para tareas más simples.

Estrategia Comercial e Integración Futura

Random Labs opera actualmente con un modelo de crédito basado en el uso, con herramientas de facturación en tiempo real para equipos profesionales. La compañía planea integrarse directamente con Codex de OpenAI y Claude Code de Anthropic, posicionando a Slate como una capa de orquestación superior en lugar de un competidor de las interfaces nativas de estos modelos.

Resultados iniciales de estabilidad

Las pruebas internas sugieren que Slate es notablemente estable. Una versión anterior pasó 2/3 de las pruebas en la tarea make-mips-interpreter, un punto de referencia en el que incluso los LLM más avanzados suelen fallar más del 80% de las veces. Esta estabilidad, combinada con su capacidad de escalar como una organización, sugiere que Slate está evolucionando más allá de una simple herramienta para convertirse en un socio colaborativo para desarrolladores.

Slate V1 representa un cambio en la codificación asistida por IA: de interfaces basadas en chat a flujos de trabajo distribuidos y orquestados. Es posible que en el futuro los ingenieros humanos dirijan principalmente estas “mentes colmena”, delegando tareas complejas a agentes especializados de IA que trabajen en conjunto.

Exit mobile version