GPT-5.2-Codex is an upgraded version of GPT-5.1-Codex optimized for software engineering and coding workflows. It is designed for both interactive development sessions and long, independent execution of complex engineering tasks. The model supports building projects from scratch, feature development, debugging, large-scale refactoring, and code review. Compared to GPT-5.1-Codex, 5.2-Codex is more steerable, adheres closely to developer instructions, and produces cleaner, higher-quality code outputs. Reasoning effort can be adjusted with the reasoning.effort parameter.
512K fenêtre de contexte
128K tokens de sortie max
Publié: 2026-01-14
Protocoles supportés:openai
Fournisseurs disponibles:Azure
Capacités:VisionFunction CallingRaisonnementPrompt CachingRecherche webEntrée audioEntrée vidéoEntrée PDF
Tarifs
| Type | Prix |
|---|---|
| Tokens d'entrée | $1.75/M |
| Tokens de sortie | $14/M |
| Lecture cache | $0.18/M |
| Recherche web | $0.01/R |
Exemples de code
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="openai/gpt-5.2-codex",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modèles associés
Questions fréquentes
OpenAI: GPT-5.2 Codex sur Ofox.ai coûte $1.75/M par million de tokens d'entrée et $14/M par million de tokens de sortie. Paiement à l'usage, sans frais mensuels.
OpenAI: GPT-5.2 Codex supporte une fenêtre de contexte de 512K tokens avec un maximum de 128K tokens en sortie, permettant de traiter de longs documents et de maintenir des conversations prolongées.
Configurez simplement votre URL de base sur https://api.ofox.ai/v1 et utilisez votre clé API Ofox. L'API est compatible OpenAI — changez simplement l'URL de base et la clé API dans votre code existant.
OpenAI: GPT-5.2 Codex supporte les capacités suivantes : Vision, Function Calling, Raisonnement, Prompt Caching, Recherche web, Entrée audio, Entrée vidéo, Entrée PDF. Accédez à toutes les fonctionnalités via l'API unifiée Ofox.ai.