Alibaba Qwen Flash via Dashscope. Ultra-fast inference for latency-sensitive tasks. Lowest cost option in the Qwen family.
1M janela de contexto
32K tokens máx de saída
Lançamento: 2025-07-28
Protocolos Suportados:openaianthropic
Provedores Disponíveis:Aliyun
Capacidades:Function CallingPrompt CachingBusca Web
Preços
| Tipo | Preço |
|---|---|
| Tokens de Entrada | $0.022/M |
| Tokens de Saída | $0.22/M |
| Leitura de Cache | $0.0043/M |
| Escrita de Cache | $0.027/M |
| Busca Web | $0.01/R |
Exemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen-flash",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Perguntas Frequentes
Qwen Flash na Ofox.ai custa $0.022/M por milhão de tokens de entrada e $0.22/M por milhão de tokens de saída. Pague por uso, sem mensalidade.
Qwen Flash suporta uma janela de contexto de 1M tokens com saída máxima de 32K tokens, permitindo processar documentos grandes e manter conversas longas.
Basta definir sua base URL como https://api.ofox.ai/v1 e usar sua API key Ofox. A API é compatível com OpenAI — apenas mude a base URL e a API key no seu código existente.
Qwen Flash suporta as seguintes capacidades: Function Calling, Prompt Caching, Busca Web. Acesse todos os recursos pela API unificada Ofox.ai.