MiniMax M2.7: El Modelo de IA Gratuito que Iguala a Claude Opus (y Ya Uso en Producción)

MiniMax M2.7 Libera sus Pesos: El Modelo que Uso en Producción Ahora es Open (Casi)

Llevo días usando MiniMax M2.7 Highspeed en producción — en OpenClaw, en flujos que antes corría con Claude Sonnet 4.6. Ayer liberaron los pesos del modelo. Y hay varias cosas que vale la pena entender correctamente antes de que llegue el hype sin contexto.

El 12 de abril de 2026, MiniMax publicó los pesos de M2.7 en Hugging Face. El anuncio llegó rápido a Twitter y LinkedIn: «¡MiniMax M2.7 es open source!».

No exactamente. Pero lo que sí es real es impresionante — y tiene implicaciones concretas para cualquiera que esté construyendo con agentes de IA.

🚀 ¿Te interesa la tecnología que realmente importa?

En la comunidad compartimos herramientas, workflows y automatizaciones que usamos en el día a día. Sin teoría — pura práctica.

👥 Entrar a la comunidad

Qué Se Liberó (y Qué No) — Y Qué Significa «Open Weights»

Para entender esta noticia hay que aclarar un término técnico que se usa mucho en inglés: open weights.

Un modelo de lenguaje como M2.7 es, en esencia, un archivo enorme con miles de millones de números — los llamados «parámetros» o «pesos» del modelo. Esos números son el resultado de meses de entrenamiento con enormes cantidades de datos y computación. Son lo que hace que el modelo «sepa» cosas.

Cuando una empresa dice que libera los «weights» de su modelo, está publicando ese archivo — permitiendo que cualquiera lo descargue y lo corra en su propio hardware, sin depender de la API de la empresa.

Hay tres niveles de apertura:

Nivel Qué significa Ejemplo
Propietario Solo accedes via API, nada descargable GPT-5, Claude Opus
Open Weights Descargas el modelo, pero hay restricciones de uso MiniMax M2.7, Llama 3
Open Source real Descargas el modelo Y puedes usarlo para cualquier cosa DeepSeek V3 (MIT), Gemma 4 (Apache 2.0)

M2.7 es open weights — no open source completo.

La diferencia no es semántica. La licencia de M2.7 es de estilo MIT pero con una restricción importante: cualquier uso comercial requiere autorización escrita de MiniMax. Si lo usas en un producto que cobra, en una API de pago, o en un modelo fine-tuneado que monetizas — necesitas su permiso.

La licencia de M2.7 es MIT-style pero con una restricción importante: cualquier uso comercial requiere autorización escrita de MiniMax. Si lo usas en un producto que cobra, en una API de pago, o en un modelo fine-tuneado que monetizas — necesitas permiso.

La comunidad en Hugging Face señaló esto inmediatamente. La licencia no es OSI-compliant, y eso importa para quien planee construir algo encima.

Para uso en investigación, experimentación o entornos no comerciales: descarga libre.

Para uso en producción comercial: habla con MiniMax antes.


Las Especificaciones que Importan

M2.7 es un modelo Mixture-of-Experts (MoE). Eso significa que aunque tiene un total grande de parámetros, en cada inferencia solo activa una fracción:

Especificación Valor
Parámetros activos por inferencia 10B
Ventana de contexto 205,000 tokens
Velocidad 45-100 tokens/segundo
Precio API $0.30/M input · $1.20/M output
Disponible en Ollama ✅ (correr local)
NVIDIA API (gratis)

El número que más importa: 10B parámetros activos. Eso explica por qué puede correr en hardware razonable siendo competitivo con modelos mucho más grandes en inferencia.


Los Benchmarks — Con Honestidad

Los números son reales y son buenos. Pero hay matices que los titulares ignoran:

SWE-bench Verified (Coding Real)

El benchmark más relevante para trabajo real de software engineering — problemas reales de repositorios reales:

Modelo Score Tipo
Claude Opus 4.6 80.84% Propietario
MiniMax M2.7 78% Open Weights
Claude Sonnet 4.6 ~65% Propietario
GPT-5.4 Mini ~63% Propietario
Gemini 2.5 Pro ~72% Propietario
DeepSeek V3.2 ~74% Open Source

M2.7 alcanza el 95-97% del rendimiento de Claude Opus — y le gana a Sonnet, GPT-5.4 Mini y está a la par de Gemini 2.5 Pro.

SWE-Pro (Multi-lenguaje, más difícil)

Modelo Score Costo/M tokens
Claude Opus 4.6 ~57% $5 input / $25 output
GPT-5.3-Codex 56.2% Variable
MiniMax M2.7 56.22% $0.30 input / $1.20 output
Gemini 2.5 Flash ~50% $0.30 / $2.50
Claude Sonnet 4.6 ~48% $3 / $15

Empate a tres bandas con los mejores del mundo — a una fracción del costo.

Precio vs Rendimiento — La Tabla que Importa

Modelo SWE-bench Costo input/M Costo output/M vs M2.7 (precio)
Claude Opus 4.6 80.84% $5 $25 17-21x más caro
Claude Sonnet 4.6 ~65% $3 $15 10x más caro
GPT-5.4 ~65% $5 $15 17x más caro
GPT-5.4 Mini ~63% $0.30 $1.20 Similar precio
Gemini 2.5 Flash ~50% $0.30 $2.50 Similar precio
MiniMax M2.7 78% $0.30 $1.20 Referencia
DeepSeek V3.2 ~74% $0.14 $0.28 Más barato, menor score

Costo por Tarea Real

El blog de Kilo Code hizo una comparación práctica: identificar bugs y vulnerabilidades de seguridad en un proyecto real.

Modelo Costo por tarea Bugs encontrados
Claude Opus 4.6 $3.67 6/6 bugs, 10/10 vulns
MiniMax M2.7 $0.27 6/6 bugs, 10/10 vulns

Mismo resultado. A 7% del costo. Para agentes corriendo miles de tareas al mes, eso cambia completamente la ecuación.

Para agentes que corren miles de tareas al mes, esto no es un detalle — es la diferencia entre un negocio rentable y uno que sangra en costos de API.


Mi Experiencia en Producción

Llevo usando M2.7 Highspeed con la suscripción de $40/mes desde hace días. Lo migré de varios flujos que antes corría con Claude Sonnet 4.6:

Lo que funciona mejor que esperaba:

  • OpenClaw: El agente principal corre completamente en M2.7. Respuestas más rápidas que Sonnet, calidad comparable para el 80% de las tareas
  • Flujos n8n de redes sociales y sindicación: Migré hoy mismo los workflows de generación de contenido para redes sociales y sindicación de posts (Dev.to, Hashnode). Cero diferencia perceptible en calidad vs Sonnet, y el throughput es mejor para flujos que procesan varios posts en paralelo
  • Instagram: Tenía el canal botado — con M2.7 volví a activar los flujos de generación de contenido para Instagram que había pausado por costo
  • Generación de contenido técnico: El nivel de detalle y precisión es sólido
  • Consistencia: No he llegado a los límites de la suscripción ni una vez

Donde Claude sigue ganando:

  • Razonamiento muy complejo de varios pasos
  • Contextos de más de 200K tokens (Claude tiene 1M)
  • Nuances de redacción en tono más personalizado

La suscripción de $40/mes (Highspeed) me da acceso a M2.7 con throughput optimizado. Para comparar: Claude Sonnet 4.6 en la API de Anthropic cuesta $3/$15 por millón de tokens. Con el volumen que manejo en OpenClaw, la suscripción fija es significativamente más barata.


El Dato que Nadie Menciona: OpenClaw en el Entrenamiento

Hay un detalle en los benchmarks oficiales que me llamó la atención: MiniMax menciona que M2.7 fue entrenado y evaluado usando OpenClaw como scaffold de self-improvement.

Es decir, el mismo framework de agente autónomo que uso para operaciones diarias fue parte de la metodología de entrenamiento del modelo. El ciclo se cierra: el modelo mejora usando el agente, el agente mejora usando el modelo.

Para quienes estamos en el ecosistema de agentes autónomos, esto no es trivia. Es una señal de que MiniMax está construyendo su roadmap alrededor de use cases de agentes — no solo de chat.


El Próximo Paso: Hardware Local con Grace Blackwell

Tengo pendiente llegar el ASUS Ascent GX10 con NVIDIA Grace Blackwell (128GB) — la alternativa disponible para LATAM al DGX Spark de NVIDIA, que no llega a Chile.

El plan es correr M2.7 completamente local. Con 128GB de memoria unificada, debería poder correr el modelo completo sin restricciones — sin costo por token, sin latencia de red, sin dependencia de APIs.

El benchmark que más me interesa validar localmente: ¿cuánto del performance del API se mantiene en inferencia local en el hardware Grace Blackwell? Los 10B parámetros activos de M2.7 deberían manejarse bien en 128GB.

Lo documentaré cuando llegue el hardware.


Por Qué Importa Que Sea Open Weights

Aunque M2.7 no sea completamente open source, que los pesos estén disponibles tiene implicaciones reales:

1. Fine-tuning propietario

Cualquier empresa puede fine-tunear M2.7 sobre sus propios datos para casos de uso específicos. Eso crea modelos especializados que ningún LLM genérico puede replicar — exactamente el tipo de moat que tiene sentido construir en 2026.

2. Deployment on-premise

Para empresas con requisitos de privacidad o compliance que no pueden enviar datos a APIs externas, M2.7 es ahora una opción viable en el segmento de rendimiento top-tier.

3. Investigación y benchmarks independientes

Ahora cualquiera puede reproducir los benchmarks y verificar los claims. Eso es más honesto que confiar en evaluaciones propietarias.

4. Presión competitiva sobre modelos cerrados

Cuando un modelo open weights alcanza el 95-97% del rendimiento del mejor modelo propietario del mundo a 7% del costo, el resto del mercado tiene que responder. Eso baja los precios para todos.


Cómo Empezar a Probarlo

Opción 1: API de MiniMax (más simple)


# Documentación en api.minimax.io
curl -X POST "https://api.minimax.io/v1/text/chatcompletion_v2" \
  -H "Authorization: Bearer TU_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{"model": "MiniMax-M2.7-highspeed", "messages": [{"role": "user", "content": "Hola"}]}'

Opción 2: NVIDIA API (gratuito para testing)

Disponible en build.nvidia.com — endpoint gratuito para evaluar el modelo sin costo.

Opción 3: OpenRouter

Una sola API key para acceder a M2.7 junto a 290+ modelos más — sin gestionar múltiples cuentas. Ideal si ya usas OpenRouter como gateway unificado.


# Configurar en OpenClaw o cualquier cliente OpenAI-compatible
base_url: https://openrouter.ai/api/v1
model: minimax/MiniMax-M2.7-highspeed

Precio similar a la API directa de MiniMax, con la ventaja de tener fallback automático a otros modelos.

Opción 4: Ollama (local)


ollama run minimax-m2.7

Requiere hardware con memoria suficiente. Con la arquitectura MoE y 10B activos, debería correr en máquinas con 16-24GB de VRAM para inferencia básica. Para el modelo completo sin restricciones: 128GB de memoria unificada (como el ASUS Ascent GX10 Grace Blackwell).

Opción 5: Suscripción Highspeed ($40/mes)

Lo que yo uso. Acceso optimizado con throughput garantizado — sin sorpresas en la factura.


Conclusión: El Mercado de Modelos de IA se Está Aplanando

M2.7 es otra señal de algo que los benchmarks de hace seis meses no mostraban: la brecha entre los mejores modelos propietarios y los mejores modelos open weights se está cerrando.

No está cerrada. Claude Opus 4.6 sigue siendo mejor en razonamiento complejo y contexto largo. GPT-5.x tiene capacidades multimodales más completas. Anthropic y OpenAI siguen invirtiendo en investigación frontier que los mantiene adelante.

Pero la distancia se redujo de «generaciones diferentes» a «matices según el caso de uso». Y cuando la diferencia de costo es 17-50x, el matiz tiene que ser muy importante para justificarlo.

Para builders y founders: M2.7 merece estar en tu evaluación. No como reemplazo universal de todo — sino como la herramienta correcta para el subconjunto de tareas donde coding, razonamiento estructurado y agentes son el core.

Yo ya tomé esa decisión. Lo estoy corriendo en producción. Los resultados son sólidos.


Recursos:

Divulgación: Uso MiniMax M2.7 con suscripción pagada ($40/mes). El ASUS Ascent GX10 está en mi lista de compra con link de afiliado Amazon.

🚀 ¿Te interesa la tecnología que realmente importa?

En la comunidad compartimos herramientas, workflows y automatizaciones que usamos en el día a día. Sin teoría — pura práctica.

👥 Entrar a la comunidad

Suscríbete a mi Newsletter

Estrategias de automatización, AI y startups que funcionan. Análisis semanal directo a tu inbox. (Sin spam, prometo intentarlo.)