MiniMax-M2.1 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.
205K fenêtre de contexte
131K tokens de sortie max
Publié: 2025-12-23
Protocoles supportés:openaianthropic
Fournisseurs disponibles:MiniMaxAliyun
Capacités:Function CallingRaisonnementPrompt CachingRecherche web
Tarifs
| Type | Prix |
|---|---|
| Tokens d'entrée | $0.3/M |
| Tokens de sortie | $1.2/M |
| Lecture cache | $0.03/M |
| Écriture cache | $0.375/M |
Exemples de code
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="minimax/minimax-m2.1",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modèles associés
Questions fréquentes
MiniMax: MiniMax M2.1 sur Ofox.ai coûte $0.3/M par million de tokens d'entrée et $1.2/M par million de tokens de sortie. Paiement à l'usage, sans frais mensuels.
MiniMax: MiniMax M2.1 supporte une fenêtre de contexte de 205K tokens avec un maximum de 131K tokens en sortie, permettant de traiter de longs documents et de maintenir des conversations prolongées.
Configurez simplement votre URL de base sur https://api.ofox.ai/v1 et utilisez votre clé API Ofox. L'API est compatible OpenAI — changez simplement l'URL de base et la clé API dans votre code existant.
MiniMax: MiniMax M2.1 supporte les capacités suivantes : Function Calling, Raisonnement, Prompt Caching, Recherche web. Accédez à toutes les fonctionnalités via l'API unifiée Ofox.ai.