Qwen3.6原生视觉语言系列Flash模型,模型效果相较3.5-Flash显著提升。本模型重点提升agentic coding能力(在多项代码智能体基准上大幅超越前代)、数学推理和代码推理能力;视觉方面在空间智能能力上显著增强,物体定位与目标检测提升尤为突出。
1M ventana de contexto
64K tokens de salida máximos
Lanzamiento: 2026-04-16
Protocolos Soportados:openaianthropic
Proveedores Disponibles:Aliyun
Capacidades:VisiónFunction CallingRazonamientoPrompt CachingEntrada de Video
Precios
| Tipo | Precio |
|---|---|
| Tokens de Entrada | $0.25/M |
| Tokens de Salida | $1.5/M |
| Lectura de Caché | $0.025/M |
| Escritura de Caché | $0.31/M |
| Búsqueda Web | $0.01/R |
Ejemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen3.6-flash",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Preguntas Frecuentes
Qwen3.6 Flash en Ofox.ai cuesta $0.25/M por millón de tokens de entrada y $1.5/M por millón de tokens de salida. Pago por uso, sin cuotas mensuales.
Qwen3.6 Flash soporta una ventana de contexto de 1M tokens con salida máxima de 64K tokens, permitiéndote procesar documentos extensos y mantener conversaciones largas.
Simplemente configura tu base URL a https://api.ofox.ai/v1 y usa tu API key de Ofox. La API es compatible con OpenAI — solo cambia la base URL y la API key en tu código existente.
Qwen3.6 Flash soporta las siguientes capacidades: Visión, Function Calling, Razonamiento, Prompt Caching, Entrada de Video. Accede a todas las funciones a través de la API unificada de Ofox.ai.