Alibaba Qwen Max via Dashscope. High-performance model for complex tasks requiring sophisticated reasoning and generation.
32K janela de contexto
8K tokens máx de saída
Lançamento: 2025-01-25
Protocolos Suportados:openai
Provedores Disponíveis:Aliyun
Capacidades:Function CallingPrompt Caching
Preços
| Tipo | Preço |
|---|---|
| Tokens de Entrada | $0.35/M |
| Tokens de Saída | $1.38/M |
| Leitura de Cache | $0.069/M |
Exemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="bailian/qwen-max",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Perguntas Frequentes
Qwen Max na Ofox.ai custa $0.35/M por milhão de tokens de entrada e $1.38/M por milhão de tokens de saída. Pague por uso, sem mensalidade.
Qwen Max suporta uma janela de contexto de 32K tokens com saída máxima de 8K tokens, permitindo processar documentos grandes e manter conversas longas.
Basta definir sua base URL como https://api.ofox.ai/v1 e usar sua API key Ofox. A API é compatível com OpenAI — apenas mude a base URL e a API key no seu código existente.
Qwen Max suporta as seguintes capacidades: Function Calling, Prompt Caching. Acesse todos os recursos pela API unificada Ofox.ai.