MiniMax M2.7 no es un modelo más. Es el primero en haber participado activamente en su propio proceso de entrenamiento: versiones anteriores del modelo construyeron, monitorearon y optimizaron los harnesses de aprendizaje por refuerzo que produjeron la versión final. El resultado fue que el modelo automatizó entre el 30% y el 50% de su propio flujo de trabajo de investigación RL, gestionando pipelines de datos, entornos de entrenamiento y análisis de métricas sin intervención humana constante.
Esto ocurre en un momento en que el ecosistema global de modelos frontier está saturado, los precios caen y la diferenciación ya no pasa solo por los benchmarks. MiniMax, una startup china de IA con sede en Shanghái, está apostando a que el siguiente salto no viene de más datos ni de más GPUs, sino de modelos capaces de mejorar sus propios sistemas de entrenamiento.
¿Qué puede hacer M2.7 que M2.5 no podía?
La versión anterior, M2.5 (lanzada en febrero de 2026), era reconocida por su dominio multilingüe del código y su precio competitivo: alrededor del 8% del precio de Claude Sonnet. M2.7 mantiene ese precio ($0.30 por millón de tokens de entrada, $1.20 por millón de salida) y agrega capacidades críticas para entornos de producción real:
IA para el Resto de Nosotros
La nueva versión de mi curso estrella para aprender a usar la IA de forma práctica, simple y útil en tu día a día. Comienza el 24 de marzo.
→ Inscríbete hoy 🚀- SWE-Pro benchmark: 56.22%, equiparable a GPT-5.3-Codex en ingeniería de software avanzada
- MLE Bench Lite: 66.6% de tasa de medalla en competencias de investigación en ML autónoma — empata con Gemini 3.1 y se acerca a Claude Opus 4.6
- Tasa de alucinaciones: 34%, frente al 46% de Claude Sonnet 4.6 y el 50% de Gemini 3.1 Pro Preview
- MM Claw evaluation: 97% de adherencia a instrucciones complejas (más de 2,000 tokens), una mejora sustancial sobre M2.5
- Inteligencia global: puesto 8 en el Artificial Analysis Intelligence Index, con 8 puntos de mejora respecto al mes anterior
No todos los benchmarks independientes muestran mejora: en BridgeBench (orientado a “vibe coding”), M2.5 ocupó el puesto 12 y M2.7 cayó al 19. Un recordatorio de que los avances en un dominio no siempre se transfieren a todos los casos de uso.
¿Qué cambia de verdad para los equipos de desarrollo?
Lo más relevante para equipos técnicos no es el puntaje en benchmarks sino el comportamiento en producción. Según MiniMax, M2.7 es capaz de correlacionar métricas de monitoreo con repositorios de código y reducir el tiempo de recuperación ante incidentes en producción a menos de tres minutos, de forma autónoma.
La integración oficial cubre más de 11 herramientas ampliamente usadas en el ecosistema de agentes: Claude Code, Cursor, Kilo Code, Cline, OpenClaw, Codex CLI, Roo Code, Grok CLI y otras. Desarrolladores que usen el SDK de Anthropic pueden apuntar al endpoint de MiniMax modificando ANTHROPIC_BASE_URL sin cambios adicionales en el código.
En términos de costo versus inteligencia, MiniMax posiciona M2.7 en la frontera de Pareto: cuesta menos de un tercio que GLM-5 en tareas equivalentes ($176 vs. $547 por corrida en el Artificial Analysis Intelligence Index).
Por qué importa
La trayectoria de MiniMax es una señal de algo más amplio: los modelos chinos de código abierto que durante más de un año fueron los referentes globales de eficiencia y precio están girando hacia modelos propietarios. MiniMax se suma a Z.ai con GLM-5 Turbo, y se especula que el equipo Qwen de Alibaba sigue el mismo camino.
El giro tiene lógica de negocio: los modelos abiertos democratizan el acceso pero no capturan valor directamente. Los propietarios permiten construir moats. El dilema es que muchas empresas en occidente preferirán no depender de un modelo propietario chino para cargas de trabajo sensibles, independientemente del precio.
Para los equipos que buscan modelos frontier económicos sin restricciones regulatorias, M2.7 es una opción que merece estar en el shortlist. Para los que operan en sectores regulados o con exposición al gobierno, la ecuación se complica. La inteligencia es real; el riesgo de cadena de suministro es también real — como ya aprendió el propio MiniMax en el caso de las 16 millones de respuestas destiladas de Claude.
La apuesta de fondo de M2.7 es que el próximo salto en IA no vendrá de más escala humana sino de modelos capaces de mejorar su propio proceso de aprendizaje. Si los benchmarks se sostienen en producción, ese argumento empieza a tener peso.

