Qwen3.6系列中规模最大、综合能力最强的Max模型Preview版本,当前开放纯文本模型能力供体验。相较于此前发布的Qwen3-Max和Qwen3.6-Plus,本模型在vibe coding能力上进一步提升、coding agent执行更加高效、前端编程开发能力显著提升;长尾知识能力进一步升级。
256K 上下文窗口
64K 最大输出 token
发布日期: 2026-04-20
支持的协议:openaianthropic
可用供应商:Aliyun
能力:函数调用推理提示缓存
定价
| 类型 | 价格 |
|---|---|
| 输入 Token | $2/M |
| 输出 Token | $12/M |
| 缓存读取 | $0.2/M |
| 缓存写入 | $2/M |
| 网络搜索 | $0.01/R |
代码示例
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.6-max-preview",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
相关模型
常见问题
Qwen3.6 Max Preview 在 Ofox.ai 上的价格为输入 $2/M/百万 Token,输出 $12/M/百万 Token。按量计费,无月费。
Qwen3.6 Max Preview 支持 256K Token 的上下文窗口,最大输出 64K Token,可处理大型文档并维持长对话。
只需将 base URL 设置为 https://api.ofox.ai/v1,并使用你的 Ofox API Key。API 兼容 OpenAI 格式——只需更改 base URL 和 API Key 即可。
Qwen3.6 Max Preview 支持以下能力:函数调用, 推理, 提示缓存。通过 Ofox.ai 统一 API 访问所有功能。