Qwen: Qwen3.5 Flash
Chatbailian/qwen3.5-flashQwen3.5原生视觉语言系列Flash模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,实现了更高的推理效率。模型效果在纯文本与多模态方面相较3系列均实现飞跃式进步;响应速度快,兼具推理速度和性能。
1M kontextfenster
64K max. ausgabe-tokens
Veröffentlicht: 2026-02-23
Unterstützte Protokolle:openaianthropic
Verfügbare Anbieter:Aliyun
Fähigkeiten:VisionFunction CallingReasoningPrompt CachingVideo-Eingabe
Preise
| Typ | Preis |
|---|---|
| Eingabe-Tokens | $0.1/M |
| Ausgabe-Tokens | $0.4/M |
| Cache-Lesen | $0.01/M |
| Cache-Schreiben | $0.125/M |
| Websuche | $0.01/R |
Code-Beispiele
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.5-flash",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Verwandte Modelle
Häufig gestellte Fragen
Qwen: Qwen3.5 Flash auf Ofox.ai kostet $0.1/M pro Million Eingabe-Tokens und $0.4/M pro Million Ausgabe-Tokens. Pay-as-you-go, keine monatlichen Gebühren.
Qwen: Qwen3.5 Flash unterstützt ein Kontextfenster von 1M Tokens mit max. Ausgabe von 64K Tokens, was die Verarbeitung großer Dokumente und lange Konversationen ermöglicht.
Einfach Ihre Base-URL auf https://api.ofox.ai/v1 setzen und Ihren Ofox API Key verwenden. Die API ist OpenAI-kompatibel — einfach Base-URL und API Key in Ihrem bestehenden Code ändern.
Qwen: Qwen3.5 Flash unterstützt folgende Fähigkeiten: Vision, Function Calling, Reasoning, Prompt Caching, Video-Eingabe. Zugriff auf alle Features über die einheitliche Ofox.ai API.