Qwen3.6系列中规模最大、综合能力最强的Max模型Preview版本,当前开放纯文本模型能力供体验。相较于此前发布的Qwen3-Max和Qwen3.6-Plus,本模型在vibe coding能力上进一步提升、coding agent执行更加高效、前端编程开发能力显著提升;长尾知识能力进一步升级。
256K janela de contexto
64K tokens máx de saída
Lançamento: 2026-04-20
Protocolos Suportados:openaianthropic
Provedores Disponíveis:Aliyun
Capacidades:Function CallingRaciocínioPrompt Caching
Preços
| Tipo | Preço |
|---|---|
| Tokens de Entrada | $2/M |
| Tokens de Saída | $12/M |
| Leitura de Cache | $0.2/M |
| Escrita de Cache | $2/M |
| Busca Web | $0.01/R |
Exemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.6-max-preview",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Perguntas Frequentes
Qwen3.6 Max Preview na Ofox.ai custa $2/M por milhão de tokens de entrada e $12/M por milhão de tokens de saída. Pague por uso, sem mensalidade.
Qwen3.6 Max Preview suporta uma janela de contexto de 256K tokens com saída máxima de 64K tokens, permitindo processar documentos grandes e manter conversas longas.
Basta definir sua base URL como https://api.ofox.ai/v1 e usar sua API key Ofox. A API é compatível com OpenAI — apenas mude a base URL e a API key no seu código existente.
Qwen3.6 Max Preview suporta as seguintes capacidades: Function Calling, Raciocínio, Prompt Caching. Acesse todos os recursos pela API unificada Ofox.ai.