Qwen3.5系列122B-A10B原生视觉语言模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,实现了更高的推理效率。该模型的综合表现仅次于Qwen3.5-397B-A17B,文本能力显著优于Qwen3-235B-2507,视觉能力优于Qwen3-VL-235B。
256K fenêtre de contexte
64K tokens de sortie max
Publié: 2026-02-23
Protocoles supportés:openai
Fournisseurs disponibles:Aliyun
Capacités:VisionFunction CallingRaisonnementPrompt CachingRecherche webEntrée vidéo
Tarifs
| Type | Prix |
|---|---|
| Tokens d'entrée | $0.29/M |
| Tokens de sortie | $2.29/M |
| Lecture cache | $0.29/M |
| Recherche web | $0.01/R |
Exemples de code
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.5-122b-a10b",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modèles associés
Questions fréquentes
Qwen: Qwen3.5 122B A10B sur Ofox.ai coûte $0.29/M par million de tokens d'entrée et $2.29/M par million de tokens de sortie. Paiement à l'usage, sans frais mensuels.
Qwen: Qwen3.5 122B A10B supporte une fenêtre de contexte de 256K tokens avec un maximum de 64K tokens en sortie, permettant de traiter de longs documents et de maintenir des conversations prolongées.
Configurez simplement votre URL de base sur https://api.ofox.ai/v1 et utilisez votre clé API Ofox. L'API est compatible OpenAI — changez simplement l'URL de base et la clé API dans votre code existant.
Qwen: Qwen3.5 122B A10B supporte les capacités suivantes : Vision, Function Calling, Raisonnement, Prompt Caching, Recherche web, Entrée vidéo. Accédez à toutes les fonctionnalités via l'API unifiée Ofox.ai.