GLM-5V-Turbo
Chatz-ai/glm-5v-turboGLM-5V-Turbo is Z.AI’s first multimodal coding foundation model, built for vision-based coding tasks. It can natively process multimodal inputs such as images, video, and text, while also excelling at long-horizon planning, complex coding, and action execution.
200K kontextfenster
128K max. ausgabe-tokens
Veröffentlicht: 2026-04-01
Unterstützte Protokolle:openaianthropic
Verfügbare Anbieter:Zhipu
Fähigkeiten:VisionFunction CallingReasoningPrompt CachingWebsucheVideo-EingabePDF-Eingabe
Preise
| Typ | Preis |
|---|---|
| Eingabe-Tokens | $1.2/M |
| Ausgabe-Tokens | $4/M |
| Cache-Lesen | $0.24/M |
| Websuche | $0.01/R |
Code-Beispiele
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="z-ai/glm-5v-turbo",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Verwandte Modelle
Häufig gestellte Fragen
GLM-5V-Turbo auf Ofox.ai kostet $1.2/M pro Million Eingabe-Tokens und $4/M pro Million Ausgabe-Tokens. Pay-as-you-go, keine monatlichen Gebühren.
GLM-5V-Turbo unterstützt ein Kontextfenster von 200K Tokens mit max. Ausgabe von 128K Tokens, was die Verarbeitung großer Dokumente und lange Konversationen ermöglicht.
Einfach Ihre Base-URL auf https://api.ofox.ai/v1 setzen und Ihren Ofox API Key verwenden. Die API ist OpenAI-kompatibel — einfach Base-URL und API Key in Ihrem bestehenden Code ändern.
GLM-5V-Turbo unterstützt folgende Fähigkeiten: Vision, Function Calling, Reasoning, Prompt Caching, Websuche, Video-Eingabe, PDF-Eingabe. Zugriff auf alle Features über die einheitliche Ofox.ai API.