A startup chinesa de IA MiniMax lançou seu mais recente modelo de linguagem grande (LLM), M2.7, marcando uma nova fase no desenvolvimento de IA: autoaperfeiçoamento recursivo. Ao contrário dos modelos tradicionais que dependem do ajuste humano, o M2.7 foi concebido para otimizar de forma independente os seus próprios processos de investigação e desenvolvimento. Esta mudança assinala uma mudança em direcção a sistemas de IA que não são apenas produtos da engenharia humana, mas arquitectos activos do seu próprio progresso.
O ciclo de autoevolução explicado
MiniMax integrou M2.7 em seus equipamentos de aprendizagem por reforço, permitindo que o modelo lide com 30–50% de seu próprio fluxo de trabalho de desenvolvimento. Isso inclui depuração autônoma, análise de métricas e modificação de código em loops iterativos. O modelo não automatiza apenas tarefas simples; ela está melhorando ativamente seu próprio desempenho de programação, analisando trajetórias de falhas e planejando ajustes de código.
Segundo Skyler Miao, chefe de engenharia da MiniMax, o modelo é “intencionalmente treinado para melhor planejar e esclarecer requisitos com o usuário”. A próxima etapa envolve simuladores de usuários mais complexos para levar esse recurso ainda mais longe. Em competições de aprendizado de máquina, o M2.7 alcançou uma taxa de medalhas de 66,6%, igualando o Gemini 3.1 do Google e aproximando-se dos benchmarks estabelecidos por Claude Opus 4.6 da Anthropic.
Mudança Estratégica: Do Código Aberto aos Modelos Proprietários
A mudança da MiniMax em direção a modelos proprietários segue uma tendência entre as startups chinesas de IA. Durante grande parte do ano passado, essas empresas foram líderes na fronteira da IA de código aberto, oferecendo soluções econômicas e personalizáveis. No entanto, como líderes dos EUA como OpenAI, Google e Anthropic, a MiniMax agora está focada no desenvolvimento e lançamento de LLMs exclusivos e de ponta.
Essa mudança é evidente em lançamentos recentes: o GLM-5 Turbo da z.ai e os rumores de que a equipe Qwen do Alibaba também busca desenvolvimento proprietário. Isto significa menos acesso aberto, mas inovação potencialmente mais rápida e mais controlo sobre capacidades avançadas de IA.
Ganhos de desempenho: M2.7 vs. M2.5
O M2.7 demonstra melhorias significativas em relação ao seu antecessor, M2.5, especialmente em tarefas de engenharia do mundo real. Aqui está uma análise das principais métricas:
- Engenharia de Software: M2.7 obteve 56,22% no benchmark SWE-Pro, correspondendo ao GPT-5.3-Codex.
- Produtividade no escritório: alcançou uma pontuação Elo de 1.495 no GDPval-AA, superando os concorrentes de código aberto.
- Redução de alucinações: Taxas de alucinações reduzidas para 34%, inferiores às do Claude Sonnet 4.6 (46%) e do Gemini 3.1 Pro Preview (50%).
- Compreensão do Sistema: Pontuação de 57,0% no Terminal Bench 2, indicando uma compreensão mais profunda da lógica operacional.
A inteligência geral do modelo melhorou 8 pontos no Índice de Inteligência de Análise Artificial em apenas um mês, colocando-o em 8º lugar globalmente. No entanto, ele teve um desempenho pior que o M2.5 em tarefas de “codificação de vibração” no BridgeBench, mostrando que a especialização é importante.
Preços e Integração
O MiniMax M2.7 está disponível através da API MiniMax e das plataformas de agente a preços competitivos: 0,30 dólares por 1 milhão de tokens de entrada e 1,20 dólares por 1 milhão de tokens de saída. Isso o torna um dos modelos de IA de fronteira mais acessíveis disponíveis, mais barato que a maioria dos concorrentes, incluindo Grok 4.1 Fast, Gemini 3 Flash e Claude Haiku 4.5.
O modelo se integra perfeitamente com as principais ferramentas de desenvolvedor, como Claude Code, Cursor e Zed, bem como SDKs Anthropic. Isso garante fácil adoção para desenvolvedores que usam fluxos de trabalho existentes.
Implicações estratégicas para empresas
A versão M2.7 sugere que a IA de agente agora está pronta para produção, capaz de reduzir significativamente o tempo de recuperação para incidentes de produção ao vivo (menos de três minutos). Isto tem implicações importantes para as equipes de SRE e DevOps.
As empresas devem decidir se estão satisfeitas com a IA como assistente ou se estão prontas para integrar equipas autónomas capazes de entregar projetos de ponta a ponta. A eficiência de custos do M2.7 – menos de um terço do custo do GLM-5 para inteligência equivalente – torna-o uma opção atraente para organizações focadas na eficiência e em fluxos de trabalho profissionais de documentos.
No entanto, as origens chinesas do modelo e a falta de acesso offline podem representar desafios para as empresas dos EUA e do Ocidente, especialmente as dos setores regulamentados. Em última análise, a mudança para modelos autoevolutivos significa que o ROI dependerá cada vez mais dos ganhos recursivos do próprio sistema. As organizações que adotam esses modelos podem acelerar os seus ciclos de iteração em comparação com aquelas que dependem de refinamento estático e apenas humano.
