OpenAI's flagship multimodal model supporting text and image inputs with text outputs. Maintains GPT-4 Turbo intelligence at 2x speed and 50% lower cost. Optimized for complex reasoning, coding, and visual understanding tasks.
128K fenêtre de contexte
16K tokens de sortie max
Publié: 2024-05-13
Protocoles supportés:openai
Fournisseurs disponibles:Azure
Capacités:VisionFunction CallingPrompt CachingEntrée audio
Tarifs
| Type | Prix |
|---|---|
| Tokens d'entrée | $2.5/M |
| Tokens de sortie | $10/M |
| Lecture cache | $1.25/M |
| Recherche web | $0.01/R |
Exemples de code
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="openai/gpt-4o",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modèles associés
Questions fréquentes
GPT-4o sur Ofox.ai coûte $2.5/M par million de tokens d'entrée et $10/M par million de tokens de sortie. Paiement à l'usage, sans frais mensuels.
GPT-4o supporte une fenêtre de contexte de 128K tokens avec un maximum de 16K tokens en sortie, permettant de traiter de longs documents et de maintenir des conversations prolongées.
Configurez simplement votre URL de base sur https://api.ofox.ai/v1 et utilisez votre clé API Ofox. L'API est compatible OpenAI — changez simplement l'URL de base et la clé API dans votre code existant.
GPT-4o supporte les capacités suivantes : Vision, Function Calling, Prompt Caching, Entrée audio. Accédez à toutes les fonctionnalités via l'API unifiée Ofox.ai.