MiniMax-M2.1 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.
205K ventana de contexto
131K tokens de salida máximos
Lanzamiento: 2025-12-23
Protocolos Soportados:openaianthropic
Proveedores Disponibles:AliyunMiniMax
Capacidades:Function CallingRazonamientoPrompt CachingBúsqueda Web
Precios
| Tipo | Precio |
|---|---|
| Tokens de Entrada | $0.3/M |
| Tokens de Salida | $1.2/M |
| Lectura de Caché | $0.03/M |
| Escritura de Caché | $0.375/M |
Ejemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="minimax/minimax-m2.1",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Preguntas Frecuentes
MiniMax: MiniMax M2.1 en Ofox.ai cuesta $0.3/M por millón de tokens de entrada y $1.2/M por millón de tokens de salida. Pago por uso, sin cuotas mensuales.
MiniMax: MiniMax M2.1 soporta una ventana de contexto de 205K tokens con salida máxima de 131K tokens, permitiéndote procesar documentos extensos y mantener conversaciones largas.
Simplemente configura tu base URL a https://api.ofox.ai/v1 y usa tu API key de Ofox. La API es compatible con OpenAI — solo cambia la base URL y la API key en tu código existente.
MiniMax: MiniMax M2.1 soporta las siguientes capacidades: Function Calling, Razonamiento, Prompt Caching, Búsqueda Web. Accede a todas las funciones a través de la API unificada de Ofox.ai.