Qwen3.6原生视觉语言系列Flash模型,模型效果相较3.5-Flash显著提升。本模型重点提升agentic coding能力(在多项代码智能体基准上大幅超越前代)、数学推理和代码推理能力;视觉方面在空间智能能力上显著增强,物体定位与目标检测提升尤为突出。
1M fenêtre de contexte
64K tokens de sortie max
Publié: 2026-04-16
Protocoles supportés:openaianthropic
Fournisseurs disponibles:Aliyun
Capacités:VisionFunction CallingRaisonnementPrompt CachingEntrée vidéo
Tarifs
| Type | Prix |
|---|---|
| Tokens d'entrée | $0.25/M |
| Tokens de sortie | $1.5/M |
| Lecture cache | $0.025/M |
| Écriture cache | $0.31/M |
| Recherche web | $0.01/R |
Exemples de code
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.6-flash",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modèles associés
Questions fréquentes
Qwen3.6 Flash sur Ofox.ai coûte $0.25/M par million de tokens d'entrée et $1.5/M par million de tokens de sortie. Paiement à l'usage, sans frais mensuels.
Qwen3.6 Flash supporte une fenêtre de contexte de 1M tokens avec un maximum de 64K tokens en sortie, permettant de traiter de longs documents et de maintenir des conversations prolongées.
Configurez simplement votre URL de base sur https://api.ofox.ai/v1 et utilisez votre clé API Ofox. L'API est compatible OpenAI — changez simplement l'URL de base et la clé API dans votre code existant.
Qwen3.6 Flash supporte les capacités suivantes : Vision, Function Calling, Raisonnement, Prompt Caching, Entrée vidéo. Accédez à toutes les fonctionnalités via l'API unifiée Ofox.ai.