基于Qwen3的代码生成模型,继承Qwen3-Coder-Plus的coding agent能力,支持多轮工具交互,重点优化仓库级别理解能力并增加工具调用稳定性。
1M fenêtre de contexte
64K tokens de sortie max
Publié: 2025-08-05
Protocoles supportés:openaianthropic
Fournisseurs disponibles:Aliyun
Capacités:Function CallingRaisonnementPrompt Caching
Tarifs
| Type | Prix |
|---|---|
| Tokens d'entrée | $0.5/M |
| Tokens de sortie | $2.5/M |
| Lecture cache | $0.06/M |
| Écriture cache | $0.27/M |
Exemples de code
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3-coder-flash",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modèles associés
Questions fréquentes
Qwen3 Coder Flash sur Ofox.ai coûte $0.5/M par million de tokens d'entrée et $2.5/M par million de tokens de sortie. Paiement à l'usage, sans frais mensuels.
Qwen3 Coder Flash supporte une fenêtre de contexte de 1M tokens avec un maximum de 64K tokens en sortie, permettant de traiter de longs documents et de maintenir des conversations prolongées.
Configurez simplement votre URL de base sur https://api.ofox.ai/v1 et utilisez votre clé API Ofox. L'API est compatible OpenAI — changez simplement l'URL de base et la clé API dans votre code existant.
Qwen3 Coder Flash supporte les capacités suivantes : Function Calling, Raisonnement, Prompt Caching. Accédez à toutes les fonctionnalités via l'API unifiée Ofox.ai.