Qwen3.6系列中规模最大、综合能力最强的Max模型Preview版本,当前开放纯文本模型能力供体验。相较于此前发布的Qwen3-Max和Qwen3.6-Plus,本模型在vibe coding能力上进一步提升、coding agent执行更加高效、前端编程开发能力显著提升;长尾知识能力进一步升级。
256K 上下文視窗
64K 最大輸出 token
發布日期: 2026-04-20
支援的協定:openaianthropic
可用供應商:Aliyun
能力:函式呼叫推理提示快取
定價
| 類型 | 價格 |
|---|---|
| 輸入 Token | $2/M |
| 輸出 Token | $12/M |
| 快取讀取 | $0.2/M |
| 快取寫入 | $2/M |
| 網路搜尋 | $0.01/R |
程式碼範例
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.6-max-preview",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
相關模型
常見問題
Qwen3.6 Max Preview 在 Ofox.ai 上的價格為輸入 $2/M/百萬 Token,輸出 $12/M/百萬 Token。按量計費,無月費。
Qwen3.6 Max Preview 支援 256K Token 的上下文視窗,最大輸出 64K Token,可處理大型文件並維持長對話。
只需將 base URL 設定為 https://api.ofox.ai/v1,並使用你的 Ofox API Key。API 相容 OpenAI 格式——只需更改 base URL 和 API Key 即可。
Qwen3.6 Max Preview 支援以下能力:函式呼叫, 推理, 提示快取。透過 Ofox.ai 統一 API 存取所有功能。