Z.ai: GLM-5-Turbo
Chatz-ai/glm-5-turboGLM-5-Turbo is a foundation model deeply optimized for the OpenClaw scenario. It has been specifically optimized for the core requirements of OpenClaw tasks since the training phase, enhancing key capabilities such as tool invocation, command following, timed and persistent tasks, and long-chain execution.
200K kontextfenster
128K max. ausgabe-tokens
Veröffentlicht: 2026-03-16
Unterstützte Protokolle:openaianthropic
Verfügbare Anbieter:Zhipu
Fähigkeiten:Function CallingReasoningPrompt CachingWebsuche
Preise
| Typ | Preis |
|---|---|
| Eingabe-Tokens | $1.2/M |
| Ausgabe-Tokens | $4/M |
| Cache-Lesen | $0.24/M |
| Websuche | $0.005/R |
Code-Beispiele
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="z-ai/glm-5-turbo",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Verwandte Modelle
Häufig gestellte Fragen
Z.ai: GLM-5-Turbo auf Ofox.ai kostet $1.2/M pro Million Eingabe-Tokens und $4/M pro Million Ausgabe-Tokens. Pay-as-you-go, keine monatlichen Gebühren.
Z.ai: GLM-5-Turbo unterstützt ein Kontextfenster von 200K Tokens mit max. Ausgabe von 128K Tokens, was die Verarbeitung großer Dokumente und lange Konversationen ermöglicht.
Einfach Ihre Base-URL auf https://api.ofox.ai/v1 setzen und Ihren Ofox API Key verwenden. Die API ist OpenAI-kompatibel — einfach Base-URL und API Key in Ihrem bestehenden Code ändern.
Z.ai: GLM-5-Turbo unterstützt folgende Fähigkeiten: Function Calling, Reasoning, Prompt Caching, Websuche. Zugriff auf alle Features über die einheitliche Ofox.ai API.