DeepSeek V4 Pro is a large-scale Mixture-of-Experts model from DeepSeek with 1.6T total parameters and 49B activated parameters, supporting a 1M-token context window. It is designed for advanced reasoning, coding, and long-horizon agent workflows, with strong performance across knowledge, math, and software engineering benchmarks.
1M fenêtre de contexte
384K tokens de sortie max
Publié: 2026-04-24
Protocoles supportés:openaianthropic
Fournisseurs disponibles:DeepSeek
Capacités:Function CallingPrompt Caching
Tarifs
| Type | Prix |
|---|---|
| Tokens d'entrée | $1.74/M |
| Tokens de sortie | $3.48/M |
| Lecture cache | $0.145/M |
Exemples de code
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="deepseek/deepseek-v4-pro",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modèles associés
Questions fréquentes
DeepSeek V4 Pro sur Ofox.ai coûte $1.74/M par million de tokens d'entrée et $3.48/M par million de tokens de sortie. Paiement à l'usage, sans frais mensuels.
DeepSeek V4 Pro supporte une fenêtre de contexte de 1M tokens avec un maximum de 384K tokens en sortie, permettant de traiter de longs documents et de maintenir des conversations prolongées.
Configurez simplement votre URL de base sur https://api.ofox.ai/v1 et utilisez votre clé API Ofox. L'API est compatible OpenAI — changez simplement l'URL de base et la clé API dans votre code existant.
DeepSeek V4 Pro supporte les capacités suivantes : Function Calling, Prompt Caching. Accédez à toutes les fonctionnalités via l'API unifiée Ofox.ai.