GPT-4o Mini
Chatopenai/gpt-4o-miniOpenAI's advanced small model, 60% cheaper than GPT-3.5 Turbo while scoring 82% on MMLU. Optimized for cost-effective tasks requiring strong language understanding and generation capabilities.
128K kontextfenster
16K max. ausgabe-tokens
Veröffentlicht: 2024-07-18
Unterstützte Protokolle:openai
Verfügbare Anbieter:Azure
Fähigkeiten:VisionFunction CallingPrompt Caching
Preise
| Typ | Preis |
|---|---|
| Eingabe-Tokens | $0.15/M |
| Ausgabe-Tokens | $0.6/M |
| Cache-Lesen | $0.075/M |
| Websuche | $0.01/R |
Code-Beispiele
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="openai/gpt-4o-mini",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Verwandte Modelle
Häufig gestellte Fragen
GPT-4o Mini auf Ofox.ai kostet $0.15/M pro Million Eingabe-Tokens und $0.6/M pro Million Ausgabe-Tokens. Pay-as-you-go, keine monatlichen Gebühren.
GPT-4o Mini unterstützt ein Kontextfenster von 128K Tokens mit max. Ausgabe von 16K Tokens, was die Verarbeitung großer Dokumente und lange Konversationen ermöglicht.
Einfach Ihre Base-URL auf https://api.ofox.ai/v1 setzen und Ihren Ofox API Key verwenden. Die API ist OpenAI-kompatibel — einfach Base-URL und API Key in Ihrem bestehenden Code ändern.
GPT-4o Mini unterstützt folgende Fähigkeiten: Vision, Function Calling, Prompt Caching. Zugriff auf alle Features über die einheitliche Ofox.ai API.