De Chinese AI-startup MiniMax heeft zijn nieuwste grote taalmodel (LLM), M2.7, uitgebracht en markeert een nieuwe fase in de AI-ontwikkeling: recursieve zelfverbetering. In tegenstelling tot traditionele modellen die afhankelijk zijn van menselijke afstemming, is M2.7 ontworpen om onafhankelijk zijn eigen onderzoeks- en ontwikkelingsprocessen te optimaliseren. Deze stap signaleert een verschuiving naar AI-systemen die niet alleen producten van menselijke techniek zijn, maar actieve architecten van hun eigen vooruitgang.
De zelf-evolutielus uitgelegd
MiniMax heeft M2.7 geïntegreerd in zijn versterkende leerharnassen, waardoor het model 30-50% van zijn eigen ontwikkelingsworkflow kan afhandelen. Dit omvat autonoom debuggen, metrische analyse en codewijziging via iteratieve lussen. Het model automatiseert niet alleen eenvoudige taken; het verbetert actief zijn eigen programmeerprestaties door faaltrajecten te analyseren en code-aanpassingen te plannen.
Volgens Skyler Miao, hoofd engineering bij MiniMax, is het model “opzettelijk getraind om beter te zijn in het plannen en verduidelijken van vereisten met de gebruiker”. De volgende stap omvat complexere gebruikerssimulators om deze mogelijkheid nog verder te vergroten. In machine learning-competities heeft M2.7 een medaillepercentage van 66,6% behaald, wat overeenkomt met Google’s Gemini 3.1 en de benchmarks van Claude Opus 4.6 van Anthropic benadert.
Strategische verschuiving: van open source naar eigen modellen
De stap van MiniMax naar eigen modellen volgt een trend onder Chinese AI-startups. Een groot deel van het afgelopen jaar waren deze bedrijven toonaangevend op het gebied van open-source AI, door kosteneffectieve en aanpasbare oplossingen aan te bieden. Maar net als Amerikaanse leiders als OpenAI, Google en Anthropic richt MiniMax zich nu op het ontwikkelen en uitbrengen van exclusieve, geavanceerde LLM’s.
Deze verschuiving is duidelijk zichtbaar in recente releases: z.ai’s GLM-5 Turbo en geruchten dat Alibaba’s Qwen-team ook eigen ontwikkeling nastreeft. Dit betekent minder open toegang, maar potentieel snellere innovatie en meer controle over geavanceerde AI-mogelijkheden.
Prestatiewinst: M2.7 versus M2.5
M2.7 laat aanzienlijke verbeteringen zien ten opzichte van zijn voorganger, M2.5, vooral bij technische taken in de echte wereld. Hier volgt een overzicht van de belangrijkste statistieken:
- Software-engineering: M2.7 scoorde 56,22% op de SWE-Pro-benchmark, wat overeenkomt met GPT-5.3-Codex.
- Kantoorproductiviteit: Behaalde een Elo-score van 1495 op GDPval-AA, waarmee hij beter presteerde dan open-sourceconcurrenten.
- Reductie van hallucinaties: Verminderde hallucinaties tot 34%, lager dan Claude Sonnet 4.6 (46%) en Gemini 3.1 Pro Preview (50%).
- Systeembegrip: Scoorde 57,0% op Terminal Bench 2, wat wijst op een dieper begrip van de operationele logica.
De algehele intelligentie van het model is in slechts één maand tijd met 8 punten verbeterd op de Artificial Analysis Intelligence Index, waarmee het wereldwijd op de 8e plaats staat. Het presteerde echter slechter dan M2.5 op het gebied van “vibe coding”-taken in BridgeBench, wat aantoont dat specialisatie ertoe doet.
Prijzen en integratie
MiniMax M2.7 is beschikbaar via de MiniMax API- en Agent-platforms tegen concurrerende prijzen: 0,30 dollar per 1 miljoen inputtokens en 1,20 dollar per 1 miljoen outputtokens. Dit maakt het een van de meest betaalbare AI-modellen op de markt, goedkoper dan de meeste concurrenten, waaronder Grok 4.1 Fast, Gemini 3 Flash en Claude Haiku 4.5.
Het model kan naadloos worden geïntegreerd met belangrijke ontwikkelaarstools zoals Claude Code, Cursor en Zed, evenals met Anthropic SDK’s. Dit zorgt voor een gemakkelijke acceptatie voor ontwikkelaars die bestaande workflows gebruiken.
Strategische implicaties voor ondernemingen
De M2.7-release suggereert dat agentische AI nu productieklaar is, waardoor de hersteltijd voor live productie-incidenten aanzienlijk kan worden verkort (minder dan drie minuten). Dit heeft grote gevolgen voor SRE- en DevOps-teams.
Bedrijven moeten beslissen of ze tevreden zijn met AI als assistent of klaar zijn om autonome teams te integreren die in staat zijn om end-to-end projecten op te leveren. De kostenefficiëntie van M2.7 – minder dan een derde van de kosten van GLM-5 voor gelijkwaardige intelligentie – maakt het een aantrekkelijke optie voor organisaties die zich richten op efficiëntie en professionele documentworkflows.
De Chinese oorsprong van het model en het gebrek aan offline toegang kunnen echter uitdagingen opleveren voor Amerikaanse en westerse bedrijven, vooral die in gereguleerde sectoren. Uiteindelijk betekent de verschuiving naar zelfontwikkelende modellen dat de ROI steeds meer zal afhangen van de recursieve winsten van het systeem zelf. Organisaties die dergelijke modellen adopteren, kunnen hun iteratiecycli versnellen vergeleken met organisaties die vertrouwen op statische, uitsluitend door mensen ontwikkelde verfijning.
