As a 30B-class SOTA model, GLM-4.7-Flash offers a new option that balances performance and efficiency. It is further optimized for agentic coding use cases, strengthening coding capabilities, long-horizon task planning, and tool collaboration, and has achieved leading performance among open-source models of the same size on several current public benchmark leaderboards.
200K janela de contexto
128K tokens máx de saída
Lançamento: 2026-01-19
Protocolos Suportados:openaianthropic
Provedores Disponíveis:Zhipu
Capacidades:Function CallingRaciocínioPrompt CachingBusca Web
Preços
| Tipo | Preço |
|---|---|
| Tokens de Entrada | $0.072/M |
| Tokens de Saída | $0.43/M |
| Leitura de Cache | $0.015/M |
| Busca Web | $0.005/R |
Exemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="z-ai/glm-4.7-flashx",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Perguntas Frequentes
Z.ai: GLM-4.7 FlashX na Ofox.ai custa $0.072/M por milhão de tokens de entrada e $0.43/M por milhão de tokens de saída. Pague por uso, sem mensalidade.
Z.ai: GLM-4.7 FlashX suporta uma janela de contexto de 200K tokens com saída máxima de 128K tokens, permitindo processar documentos grandes e manter conversas longas.
Basta definir sua base URL como https://api.ofox.ai/v1 e usar sua API key Ofox. A API é compatível com OpenAI — apenas mude a base URL e a API key no seu código existente.
Z.ai: GLM-4.7 FlashX suporta as seguintes capacidades: Function Calling, Raciocínio, Prompt Caching, Busca Web. Acesse todos os recursos pela API unificada Ofox.ai.