GLM-5-Turbo is a foundation model deeply optimized for the OpenClaw scenario. It has been specifically optimized for the core requirements of OpenClaw tasks since the training phase, enhancing key capabilities such as tool invocation, command following, timed and persistent tasks, and long-chain execution.
200K janela de contexto
128K tokens máx de saída
Lançamento: 2026-03-16
Protocolos Suportados:openaianthropic
Provedores Disponíveis:Zhipu
Capacidades:Function CallingRaciocínioPrompt CachingBusca Web
Preços
| Tipo | Preço |
|---|---|
| Tokens de Entrada | $1.2/M |
| Tokens de Saída | $4/M |
| Leitura de Cache | $0.24/M |
| Busca Web | $0.005/R |
Exemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="z-ai/glm-5-turbo",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Perguntas Frequentes
Z.ai: GLM-5-Turbo na Ofox.ai custa $1.2/M por milhão de tokens de entrada e $4/M por milhão de tokens de saída. Pague por uso, sem mensalidade.
Z.ai: GLM-5-Turbo suporta uma janela de contexto de 200K tokens com saída máxima de 128K tokens, permitindo processar documentos grandes e manter conversas longas.
Basta definir sua base URL como https://api.ofox.ai/v1 e usar sua API key Ofox. A API é compatível com OpenAI — apenas mude a base URL e a API key no seu código existente.
Z.ai: GLM-5-Turbo suporta as seguintes capacidades: Function Calling, Raciocínio, Prompt Caching, Busca Web. Acesse todos os recursos pela API unificada Ofox.ai.