GLM-5-Turbo is a foundation model deeply optimized for the OpenClaw scenario. It has been specifically optimized for the core requirements of OpenClaw tasks since the training phase, enhancing key capabilities such as tool invocation, command following, timed and persistent tasks, and long-chain execution.
200K ventana de contexto
128K tokens de salida máximos
Lanzamiento: 2026-03-16
Protocolos Soportados:openaianthropic
Proveedores Disponibles:Zhipu
Capacidades:Function CallingRazonamientoPrompt CachingBúsqueda Web
Precios
| Tipo | Precio |
|---|---|
| Tokens de Entrada | $1.2/M |
| Tokens de Salida | $4/M |
| Lectura de Caché | $0.24/M |
| Búsqueda Web | $0.005/R |
Ejemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="z-ai/glm-5-turbo",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Preguntas Frecuentes
Z.ai: GLM-5-Turbo en Ofox.ai cuesta $1.2/M por millón de tokens de entrada y $4/M por millón de tokens de salida. Pago por uso, sin cuotas mensuales.
Z.ai: GLM-5-Turbo soporta una ventana de contexto de 200K tokens con salida máxima de 128K tokens, permitiéndote procesar documentos extensos y mantener conversaciones largas.
Simplemente configura tu base URL a https://api.ofox.ai/v1 y usa tu API key de Ofox. La API es compatible con OpenAI — solo cambia la base URL y la API key en tu código existente.
Z.ai: GLM-5-Turbo soporta las siguientes capacidades: Function Calling, Razonamiento, Prompt Caching, Búsqueda Web. Accede a todas las funciones a través de la API unificada de Ofox.ai.