OpenAI's advanced small model, 60% cheaper than GPT-3.5 Turbo while scoring 82% on MMLU. Optimized for cost-effective tasks requiring strong language understanding and generation capabilities.
128K ventana de contexto
16K tokens de salida máximos
Lanzamiento: 2024-07-18
Protocolos Soportados:openai
Proveedores Disponibles:Azure
Capacidades:VisiónFunction CallingPrompt Caching
Precios
| Tipo | Precio |
|---|---|
| Tokens de Entrada | $0.15/M |
| Tokens de Salida | $0.6/M |
| Lectura de Caché | $0.075/M |
| Búsqueda Web | $0.01/R |
Ejemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="openai/gpt-4o-mini",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Preguntas Frecuentes
GPT-4o Mini en Ofox.ai cuesta $0.15/M por millón de tokens de entrada y $0.6/M por millón de tokens de salida. Pago por uso, sin cuotas mensuales.
GPT-4o Mini soporta una ventana de contexto de 128K tokens con salida máxima de 16K tokens, permitiéndote procesar documentos extensos y mantener conversaciones largas.
Simplemente configura tu base URL a https://api.ofox.ai/v1 y usa tu API key de Ofox. La API es compatible con OpenAI — solo cambia la base URL y la API key en tu código existente.
GPT-4o Mini soporta las siguientes capacidades: Visión, Function Calling, Prompt Caching. Accede a todas las funciones a través de la API unificada de Ofox.ai.