Alibaba Qwen Max via Dashscope. High-performance model for complex tasks requiring sophisticated reasoning and generation.
32K ventana de contexto
8K tokens de salida máximos
Lanzamiento: 2025-01-25
Protocolos Soportados:openai
Proveedores Disponibles:Aliyun
Capacidades:Function CallingPrompt Caching
Precios
| Tipo | Precio |
|---|---|
| Tokens de Entrada | $0.35/M |
| Tokens de Salida | $1.38/M |
| Lectura de Caché | $0.069/M |
Ejemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen-max",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Preguntas Frecuentes
Qwen Max en Ofox.ai cuesta $0.35/M por millón de tokens de entrada y $1.38/M por millón de tokens de salida. Pago por uso, sin cuotas mensuales.
Qwen Max soporta una ventana de contexto de 32K tokens con salida máxima de 8K tokens, permitiéndote procesar documentos extensos y mantener conversaciones largas.
Simplemente configura tu base URL a https://api.ofox.ai/v1 y usa tu API key de Ofox. La API es compatible con OpenAI — solo cambia la base URL y la API key en tu código existente.
Qwen Max soporta las siguientes capacidades: Function Calling, Prompt Caching. Accede a todas las funciones a través de la API unificada de Ofox.ai.