Qwen3.5原生视觉语言系列Flash模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,实现了更高的推理效率。模型效果在纯文本与多模态方面相较3系列均实现飞跃式进步;响应速度快,兼具推理速度和性能。
1M janela de contexto
64K tokens máx de saída
Lançamento: 2026-02-23
Protocolos Suportados:openaianthropic
Provedores Disponíveis:Aliyun
Capacidades:VisãoFunction CallingRaciocínioPrompt CachingEntrada de Vídeo
Preços
| Tipo | Preço |
|---|---|
| Tokens de Entrada | $0.1/M |
| Tokens de Saída | $0.4/M |
| Leitura de Cache | $0.01/M |
| Escrita de Cache | $0.125/M |
| Busca Web | $0.01/R |
Exemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.5-flash",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Perguntas Frequentes
Qwen: Qwen3.5 Flash na Ofox.ai custa $0.1/M por milhão de tokens de entrada e $0.4/M por milhão de tokens de saída. Pague por uso, sem mensalidade.
Qwen: Qwen3.5 Flash suporta uma janela de contexto de 1M tokens com saída máxima de 64K tokens, permitindo processar documentos grandes e manter conversas longas.
Basta definir sua base URL como https://api.ofox.ai/v1 e usar sua API key Ofox. A API é compatível com OpenAI — apenas mude a base URL e a API key no seu código existente.
Qwen: Qwen3.5 Flash suporta as seguintes capacidades: Visão, Function Calling, Raciocínio, Prompt Caching, Entrada de Vídeo. Acesse todos os recursos pela API unificada Ofox.ai.