Qwen3.6系列中规模最大、综合能力最强的Max模型Preview版本,当前开放纯文本模型能力供体验。相较于此前发布的Qwen3-Max和Qwen3.6-Plus,本模型在vibe coding能力上进一步提升、coding agent执行更加高效、前端编程开发能力显著提升;长尾知识能力进一步升级。
256K ventana de contexto
64K tokens de salida máximos
Lanzamiento: 2026-04-20
Protocolos Soportados:openaianthropic
Proveedores Disponibles:Aliyun
Capacidades:Function CallingRazonamientoPrompt Caching
Precios
| Tipo | Precio |
|---|---|
| Tokens de Entrada | $2/M |
| Tokens de Salida | $12/M |
| Lectura de Caché | $0.2/M |
| Escritura de Caché | $2/M |
| Búsqueda Web | $0.01/R |
Ejemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.6-max-preview",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Preguntas Frecuentes
Qwen3.6 Max Preview en Ofox.ai cuesta $2/M por millón de tokens de entrada y $12/M por millón de tokens de salida. Pago por uso, sin cuotas mensuales.
Qwen3.6 Max Preview soporta una ventana de contexto de 256K tokens con salida máxima de 64K tokens, permitiéndote procesar documentos extensos y mantener conversaciones largas.
Simplemente configura tu base URL a https://api.ofox.ai/v1 y usa tu API key de Ofox. La API es compatible con OpenAI — solo cambia la base URL y la API key en tu código existente.
Qwen3.6 Max Preview soporta las siguientes capacidades: Function Calling, Razonamiento, Prompt Caching. Accede a todas las funciones a través de la API unificada de Ofox.ai.