MiniMax M2.7 Libera sus Pesos: El Modelo que Uso en Producción Ahora es Open (Casi)
Llevo días usando MiniMax M2.7 Highspeed en producción — en OpenClaw, en flujos que antes corría con Claude Sonnet 4.6. Ayer liberaron los pesos del modelo. Y hay varias cosas que vale la pena entender correctamente antes de que llegue el hype sin contexto.
El 12 de abril de 2026, MiniMax publicó los pesos de M2.7 en Hugging Face. El anuncio llegó rápido a Twitter y LinkedIn: «¡MiniMax M2.7 es open source!».
No exactamente. Pero lo que sí es real es impresionante — y tiene implicaciones concretas para cualquiera que esté construyendo con agentes de IA.
🚀 ¿Te interesa la tecnología que realmente importa?
En la comunidad compartimos herramientas, workflows y automatizaciones que usamos en el día a día. Sin teoría — pura práctica.
👥 Entrar a la comunidadQué Se Liberó (y Qué No) — Y Qué Significa «Open Weights»
Para entender esta noticia hay que aclarar un término técnico que se usa mucho en inglés: open weights.
Un modelo de lenguaje como M2.7 es, en esencia, un archivo enorme con miles de millones de números — los llamados «parámetros» o «pesos» del modelo. Esos números son el resultado de meses de entrenamiento con enormes cantidades de datos y computación. Son lo que hace que el modelo «sepa» cosas.
Cuando una empresa dice que libera los «weights» de su modelo, está publicando ese archivo — permitiendo que cualquiera lo descargue y lo corra en su propio hardware, sin depender de la API de la empresa.
Hay tres niveles de apertura:
| Nivel | Qué significa | Ejemplo |
| Propietario | Solo accedes via API, nada descargable | GPT-5, Claude Opus |
| Open Weights | Descargas el modelo, pero hay restricciones de uso | MiniMax M2.7, Llama 3 |
| Open Source real | Descargas el modelo Y puedes usarlo para cualquier cosa | DeepSeek V3 (MIT), Gemma 4 (Apache 2.0) |
M2.7 es open weights — no open source completo.
La diferencia no es semántica. La licencia de M2.7 es de estilo MIT pero con una restricción importante: cualquier uso comercial requiere autorización escrita de MiniMax. Si lo usas en un producto que cobra, en una API de pago, o en un modelo fine-tuneado que monetizas — necesitas su permiso.
La licencia de M2.7 es MIT-style pero con una restricción importante: cualquier uso comercial requiere autorización escrita de MiniMax. Si lo usas en un producto que cobra, en una API de pago, o en un modelo fine-tuneado que monetizas — necesitas permiso.
La comunidad en Hugging Face señaló esto inmediatamente. La licencia no es OSI-compliant, y eso importa para quien planee construir algo encima.
Para uso en investigación, experimentación o entornos no comerciales: descarga libre.
Para uso en producción comercial: habla con MiniMax antes.
Las Especificaciones que Importan
M2.7 es un modelo Mixture-of-Experts (MoE). Eso significa que aunque tiene un total grande de parámetros, en cada inferencia solo activa una fracción:
| Especificación | Valor |
| Parámetros activos por inferencia | 10B |
| Ventana de contexto | 205,000 tokens |
| Velocidad | 45-100 tokens/segundo |
| Precio API | $0.30/M input · $1.20/M output |
| Disponible en Ollama | ✅ (correr local) |
| NVIDIA API (gratis) | ✅ |
El número que más importa: 10B parámetros activos. Eso explica por qué puede correr en hardware razonable siendo competitivo con modelos mucho más grandes en inferencia.
Los Benchmarks — Con Honestidad
Los números son reales y son buenos. Pero hay matices que los titulares ignoran:
SWE-bench Verified (Coding Real)
El benchmark más relevante para trabajo real de software engineering — problemas reales de repositorios reales:
| Modelo | Score | Tipo |
| Claude Opus 4.6 | 80.84% | Propietario |
| MiniMax M2.7 | 78% | Open Weights |
| Claude Sonnet 4.6 | ~65% | Propietario |
| GPT-5.4 Mini | ~63% | Propietario |
| Gemini 2.5 Pro | ~72% | Propietario |
| DeepSeek V3.2 | ~74% | Open Source |
M2.7 alcanza el 95-97% del rendimiento de Claude Opus — y le gana a Sonnet, GPT-5.4 Mini y está a la par de Gemini 2.5 Pro.
SWE-Pro (Multi-lenguaje, más difícil)
| Modelo | Score | Costo/M tokens |
| Claude Opus 4.6 | ~57% | $5 input / $25 output |
| GPT-5.3-Codex | 56.2% | Variable |
| MiniMax M2.7 | 56.22% | $0.30 input / $1.20 output |
| Gemini 2.5 Flash | ~50% | $0.30 / $2.50 |
| Claude Sonnet 4.6 | ~48% | $3 / $15 |
Empate a tres bandas con los mejores del mundo — a una fracción del costo.
Precio vs Rendimiento — La Tabla que Importa
| Modelo | SWE-bench | Costo input/M | Costo output/M | vs M2.7 (precio) |
| Claude Opus 4.6 | 80.84% | $5 | $25 | 17-21x más caro |
| Claude Sonnet 4.6 | ~65% | $3 | $15 | 10x más caro |
| GPT-5.4 | ~65% | $5 | $15 | 17x más caro |
| GPT-5.4 Mini | ~63% | $0.30 | $1.20 | Similar precio |
| Gemini 2.5 Flash | ~50% | $0.30 | $2.50 | Similar precio |
| MiniMax M2.7 | 78% | $0.30 | $1.20 | Referencia |
| DeepSeek V3.2 | ~74% | $0.14 | $0.28 | Más barato, menor score |
Costo por Tarea Real
El blog de Kilo Code hizo una comparación práctica: identificar bugs y vulnerabilidades de seguridad en un proyecto real.
| Modelo | Costo por tarea | Bugs encontrados |
| Claude Opus 4.6 | $3.67 | 6/6 bugs, 10/10 vulns |
| MiniMax M2.7 | $0.27 | 6/6 bugs, 10/10 vulns |
Mismo resultado. A 7% del costo. Para agentes corriendo miles de tareas al mes, eso cambia completamente la ecuación.
Para agentes que corren miles de tareas al mes, esto no es un detalle — es la diferencia entre un negocio rentable y uno que sangra en costos de API.
Mi Experiencia en Producción
Llevo usando M2.7 Highspeed con la suscripción de $40/mes desde hace días. Lo migré de varios flujos que antes corría con Claude Sonnet 4.6:
Lo que funciona mejor que esperaba:
- OpenClaw: El agente principal corre completamente en M2.7. Respuestas más rápidas que Sonnet, calidad comparable para el 80% de las tareas
- Flujos n8n de redes sociales y sindicación: Migré hoy mismo los workflows de generación de contenido para redes sociales y sindicación de posts (Dev.to, Hashnode). Cero diferencia perceptible en calidad vs Sonnet, y el throughput es mejor para flujos que procesan varios posts en paralelo
- Instagram: Tenía el canal botado — con M2.7 volví a activar los flujos de generación de contenido para Instagram que había pausado por costo
- Generación de contenido técnico: El nivel de detalle y precisión es sólido
- Consistencia: No he llegado a los límites de la suscripción ni una vez
Donde Claude sigue ganando:
- Razonamiento muy complejo de varios pasos
- Contextos de más de 200K tokens (Claude tiene 1M)
- Nuances de redacción en tono más personalizado
La suscripción de $40/mes (Highspeed) me da acceso a M2.7 con throughput optimizado. Para comparar: Claude Sonnet 4.6 en la API de Anthropic cuesta $3/$15 por millón de tokens. Con el volumen que manejo en OpenClaw, la suscripción fija es significativamente más barata.
El Dato que Nadie Menciona: OpenClaw en el Entrenamiento
Hay un detalle en los benchmarks oficiales que me llamó la atención: MiniMax menciona que M2.7 fue entrenado y evaluado usando OpenClaw como scaffold de self-improvement.
Es decir, el mismo framework de agente autónomo que uso para operaciones diarias fue parte de la metodología de entrenamiento del modelo. El ciclo se cierra: el modelo mejora usando el agente, el agente mejora usando el modelo.
Para quienes estamos en el ecosistema de agentes autónomos, esto no es trivia. Es una señal de que MiniMax está construyendo su roadmap alrededor de use cases de agentes — no solo de chat.
El Próximo Paso: Hardware Local con Grace Blackwell
Tengo pendiente llegar el ASUS Ascent GX10 con NVIDIA Grace Blackwell (128GB) — la alternativa disponible para LATAM al DGX Spark de NVIDIA, que no llega a Chile.
El plan es correr M2.7 completamente local. Con 128GB de memoria unificada, debería poder correr el modelo completo sin restricciones — sin costo por token, sin latencia de red, sin dependencia de APIs.
El benchmark que más me interesa validar localmente: ¿cuánto del performance del API se mantiene en inferencia local en el hardware Grace Blackwell? Los 10B parámetros activos de M2.7 deberían manejarse bien en 128GB.
Lo documentaré cuando llegue el hardware.
Por Qué Importa Que Sea Open Weights
Aunque M2.7 no sea completamente open source, que los pesos estén disponibles tiene implicaciones reales:
1. Fine-tuning propietario
Cualquier empresa puede fine-tunear M2.7 sobre sus propios datos para casos de uso específicos. Eso crea modelos especializados que ningún LLM genérico puede replicar — exactamente el tipo de moat que tiene sentido construir en 2026.
2. Deployment on-premise
Para empresas con requisitos de privacidad o compliance que no pueden enviar datos a APIs externas, M2.7 es ahora una opción viable en el segmento de rendimiento top-tier.
3. Investigación y benchmarks independientes
Ahora cualquiera puede reproducir los benchmarks y verificar los claims. Eso es más honesto que confiar en evaluaciones propietarias.
4. Presión competitiva sobre modelos cerrados
Cuando un modelo open weights alcanza el 95-97% del rendimiento del mejor modelo propietario del mundo a 7% del costo, el resto del mercado tiene que responder. Eso baja los precios para todos.
Cómo Empezar a Probarlo
Opción 1: API de MiniMax (más simple)
# Documentación en api.minimax.io
curl -X POST "https://api.minimax.io/v1/text/chatcompletion_v2" \
-H "Authorization: Bearer TU_API_KEY" \
-H "Content-Type: application/json" \
-d '{"model": "MiniMax-M2.7-highspeed", "messages": [{"role": "user", "content": "Hola"}]}'
Opción 2: NVIDIA API (gratuito para testing)
Disponible en build.nvidia.com — endpoint gratuito para evaluar el modelo sin costo.
Opción 3: OpenRouter
Una sola API key para acceder a M2.7 junto a 290+ modelos más — sin gestionar múltiples cuentas. Ideal si ya usas OpenRouter como gateway unificado.
# Configurar en OpenClaw o cualquier cliente OpenAI-compatible
base_url: https://openrouter.ai/api/v1
model: minimax/MiniMax-M2.7-highspeed
Precio similar a la API directa de MiniMax, con la ventaja de tener fallback automático a otros modelos.
Opción 4: Ollama (local)
ollama run minimax-m2.7
Requiere hardware con memoria suficiente. Con la arquitectura MoE y 10B activos, debería correr en máquinas con 16-24GB de VRAM para inferencia básica. Para el modelo completo sin restricciones: 128GB de memoria unificada (como el ASUS Ascent GX10 Grace Blackwell).
Opción 5: Suscripción Highspeed ($40/mes)
Lo que yo uso. Acceso optimizado con throughput garantizado — sin sorpresas en la factura.
Conclusión: El Mercado de Modelos de IA se Está Aplanando
M2.7 es otra señal de algo que los benchmarks de hace seis meses no mostraban: la brecha entre los mejores modelos propietarios y los mejores modelos open weights se está cerrando.
No está cerrada. Claude Opus 4.6 sigue siendo mejor en razonamiento complejo y contexto largo. GPT-5.x tiene capacidades multimodales más completas. Anthropic y OpenAI siguen invirtiendo en investigación frontier que los mantiene adelante.
Pero la distancia se redujo de «generaciones diferentes» a «matices según el caso de uso». Y cuando la diferencia de costo es 17-50x, el matiz tiene que ser muy importante para justificarlo.
Para builders y founders: M2.7 merece estar en tu evaluación. No como reemplazo universal de todo — sino como la herramienta correcta para el subconjunto de tareas donde coding, razonamiento estructurado y agentes son el core.
Yo ya tomé esa decisión. Lo estoy corriendo en producción. Los resultados son sólidos.
Recursos:
- MiniMax M2.7 — Página oficial
- Pesos en Hugging Face — verificar disponibilidad y licencia
- NVIDIA API (gratis)
- Análisis de Kilo Code: M2.7 vs Claude Opus
- Benchmarks independientes — Artificial Analysis
- ASUS Ascent GX10 Grace Blackwell (alternativa LATAM al DGX Spark)
Divulgación: Uso MiniMax M2.7 con suscripción pagada ($40/mes). El ASUS Ascent GX10 está en mi lista de compra con link de afiliado Amazon.
🚀 ¿Te interesa la tecnología que realmente importa?
En la comunidad compartimos herramientas, workflows y automatizaciones que usamos en el día a día. Sin teoría — pura práctica.
👥 Entrar a la comunidad


