La startup china de IA MiniMax ha lanzado su último modelo de lenguaje grande (LLM), M2.7, lo que marca una nueva fase en el desarrollo de la IA: superación personal recursiva. A diferencia de los modelos tradicionales que dependen del ajuste humano, M2.7 está diseñado para optimizar de forma independiente sus propios procesos de investigación y desarrollo. Este movimiento señala un cambio hacia sistemas de IA que no son sólo productos de la ingeniería humana sino arquitectos activos de su propio progreso.
Explicación del ciclo de autoevolución
MiniMax ha integrado M2.7 en sus arneses de aprendizaje por refuerzo, lo que permite que el modelo maneje entre el 30% y el 50% de su propio flujo de trabajo de desarrollo. Esto incluye depuración autónoma, análisis de métricas y modificación de código a través de bucles iterativos. El modelo no se trata sólo de automatizar tareas sencillas; está mejorando activamente su propio rendimiento de programación analizando trayectorias de fallas y planificando ajustes de código.
Según Skyler Miao, jefe de ingeniería de MiniMax, el modelo está “entrenado intencionalmente para planificar y aclarar mejor los requisitos con el usuario”. El siguiente paso implica simuladores de usuario más complejos para impulsar aún más esta capacidad. En competencias de aprendizaje automático, M2.7 logró una tasa de medallas del 66,6%, igualando a Gemini 3.1 de Google y acercándose a los puntos de referencia establecidos por Claude Opus 4.6 de Anthropic.
Cambio estratégico: del código abierto a modelos propietarios
El movimiento de MiniMax hacia modelos propietarios sigue una tendencia entre las nuevas empresas chinas de IA. Durante gran parte del año pasado, estas empresas fueron líderes en la frontera de la IA de código abierto, ofreciendo soluciones rentables y personalizables. Sin embargo, al igual que líderes estadounidenses como OpenAI, Google y Anthropic, MiniMax ahora se centra en desarrollar y lanzar LLM exclusivos y de vanguardia.
Este cambio es evidente en lanzamientos recientes: el GLM-5 Turbo de z.ai y los rumores de que el equipo Qwen de Alibaba también busca un desarrollo propio. Esto significa menos acceso abierto, pero una innovación potencialmente más rápida y más control sobre las capacidades avanzadas de IA.
Aumentos de rendimiento: M2.7 frente a M2.5
M2.7 demuestra mejoras significativas con respecto a su predecesor, M2.5, particularmente en tareas de ingeniería del mundo real. Aquí hay un desglose de las métricas clave:
- Ingeniería de software: M2.7 obtuvo una puntuación del 56,22 % en el punto de referencia SWE-Pro, igualando a GPT-5.3-Codex.
- Productividad de oficina: Obtuvo una puntuación Elo de 1495 en GDPval-AA, superando a los competidores de código abierto.
- Reducción de alucinaciones: Tasas de alucinaciones reducidas al 34%, más bajas que Claude Sonnet 4.6 (46%) y Gemini 3.1 Pro Preview (50%).
- Comprensión del sistema: Obtuve una puntuación de 57,0 % en el banco de terminales 2, lo que indica una comprensión más profunda de la lógica operativa.
La inteligencia general del modelo ha mejorado 8 puntos en el Índice de Inteligencia de Análisis Artificial en sólo un mes, situándose en el octavo puesto a nivel mundial. Sin embargo, tuvo un desempeño peor que M2.5 en tareas de “codificación de vibración” en BridgeBench, lo que demuestra que la especialización es importante.
Precios e integración
MiniMax M2.7 está disponible a través de las plataformas MiniMax API y Agent a precios competitivos: 0,30 dólares por 1 millón de tokens de entrada y 1,20 dólares por 1 millón de tokens de salida. Esto lo convierte en uno de los modelos de IA de vanguardia más asequibles disponibles, más barato que la mayoría de los competidores, incluidos Grok 4.1 Fast, Gemini 3 Flash y Claude Haiku 4.5.
El modelo se integra perfectamente con las principales herramientas de desarrollo como Claude Code, Cursor y Zed, así como con los SDK de Anthropic. Esto garantiza una fácil adopción para los desarrolladores que utilizan flujos de trabajo existentes.
Implicaciones estratégicas para las empresas
La versión M2.7 sugiere que la IA agente ahora está lista para producción y es capaz de reducir significativamente el tiempo de recuperación de incidentes de producción en vivo (menos de tres minutos). Esto tiene importantes implicaciones para los equipos de SRE y DevOps.
Las empresas deben decidir si están contentas con la IA como asistente o si están listas para integrar equipos autónomos capaces de ejecutar proyectos de un extremo a otro. La rentabilidad de M2.7 (menos de un tercio del costo de GLM-5 para inteligencia equivalente) lo convierte en una opción atractiva para organizaciones centradas en la eficiencia y los flujos de trabajo de documentos profesionales.
Sin embargo, los orígenes chinos del modelo y la falta de acceso fuera de línea pueden plantear desafíos para las empresas estadounidenses y occidentales, especialmente aquellas en industrias reguladas. En última instancia, el cambio hacia modelos que evolucionan automáticamente significa que el retorno de la inversión dependerá cada vez más de las ganancias recursivas del propio sistema. Las organizaciones que adoptan tales modelos pueden acelerar sus ciclos de iteración en comparación con aquellas que dependen de un refinamiento estático y exclusivamente humano.
