Qwen3.5原生视觉语言系列Flash模型,基于混合架构设计,融合了线性注意力机制与稀疏混合专家模型,实现了更高的推理效率。模型效果在纯文本与多模态方面相较3系列均实现飞跃式进步;响应速度快,兼具推理速度和性能。
1M ventana de contexto
64K tokens de salida máximos
Lanzamiento: 2026-02-23
Protocolos Soportados:openaianthropic
Proveedores Disponibles:Aliyun
Capacidades:VisiónFunction CallingRazonamientoPrompt CachingEntrada de Video
Precios
| Tipo | Precio |
|---|---|
| Tokens de Entrada | $0.1/M |
| Tokens de Salida | $0.4/M |
| Lectura de Caché | $0.01/M |
| Escritura de Caché | $0.125/M |
| Búsqueda Web | $0.01/R |
Ejemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.5-flash",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Preguntas Frecuentes
Qwen: Qwen3.5 Flash en Ofox.ai cuesta $0.1/M por millón de tokens de entrada y $0.4/M por millón de tokens de salida. Pago por uso, sin cuotas mensuales.
Qwen: Qwen3.5 Flash soporta una ventana de contexto de 1M tokens con salida máxima de 64K tokens, permitiéndote procesar documentos extensos y mantener conversaciones largas.
Simplemente configura tu base URL a https://api.ofox.ai/v1 y usa tu API key de Ofox. La API es compatible con OpenAI — solo cambia la base URL y la API key en tu código existente.
Qwen: Qwen3.5 Flash soporta las siguientes capacidades: Visión, Function Calling, Razonamiento, Prompt Caching, Entrada de Video. Accede a todas las funciones a través de la API unificada de Ofox.ai.