MiniMax: MiniMax M2.1
Chatminimax/minimax-m2.1MiniMax-M2.1 is a lightweight, state-of-the-art large language model optimized for coding, agentic workflows, and modern application development. With only 10 billion activated parameters, it delivers a major jump in real-world capability while maintaining exceptional latency, scalability, and cost efficiency.
205K kontextfenster
131K max. ausgabe-tokens
Veröffentlicht: 2025-12-23
Unterstützte Protokolle:openaianthropic
Verfügbare Anbieter:MiniMaxAliyun
Fähigkeiten:Function CallingReasoningPrompt CachingWebsuche
Preise
| Typ | Preis |
|---|---|
| Eingabe-Tokens | $0.3/M |
| Ausgabe-Tokens | $1.2/M |
| Cache-Lesen | $0.03/M |
| Cache-Schreiben | $0.375/M |
Code-Beispiele
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="minimax/minimax-m2.1",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Verwandte Modelle
Häufig gestellte Fragen
MiniMax: MiniMax M2.1 auf Ofox.ai kostet $0.3/M pro Million Eingabe-Tokens und $1.2/M pro Million Ausgabe-Tokens. Pay-as-you-go, keine monatlichen Gebühren.
MiniMax: MiniMax M2.1 unterstützt ein Kontextfenster von 205K Tokens mit max. Ausgabe von 131K Tokens, was die Verarbeitung großer Dokumente und lange Konversationen ermöglicht.
Einfach Ihre Base-URL auf https://api.ofox.ai/v1 setzen und Ihren Ofox API Key verwenden. Die API ist OpenAI-kompatibel — einfach Base-URL und API Key in Ihrem bestehenden Code ändern.
MiniMax: MiniMax M2.1 unterstützt folgende Fähigkeiten: Function Calling, Reasoning, Prompt Caching, Websuche. Zugriff auf alle Features über die einheitliche Ofox.ai API.