GLM-5 is Z.ai’s flagship open-source foundation model engineered for complex systems design and long-horizon agent workflows. Built for expert developers, it delivers production-grade performance on large-scale programming tasks, rivaling leading closed-source models. With advanced agentic planning, deep backend reasoning, and iterative self-correction, GLM-5 moves beyond code generation to full-system construction and autonomous execution.
200K fenêtre de contexte
128K tokens de sortie max
Publié: 2026-02-11
Protocoles supportés:openaianthropic
Fournisseurs disponibles:ZhipuAliyun
Capacités:Function CallingRaisonnementPrompt CachingRecherche web
Tarifs
| Type | Prix |
|---|---|
| Tokens d'entrée | $1/M |
| Tokens de sortie | $3.2/M |
| Lecture cache | $0.2/M |
| Recherche web | $0.005/R |
Exemples de code
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="z-ai/glm-5",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modèles associés
Questions fréquentes
Z.ai: GLM-5 sur Ofox.ai coûte $1/M par million de tokens d'entrée et $3.2/M par million de tokens de sortie. Paiement à l'usage, sans frais mensuels.
Z.ai: GLM-5 supporte une fenêtre de contexte de 200K tokens avec un maximum de 128K tokens en sortie, permettant de traiter de longs documents et de maintenir des conversations prolongées.
Configurez simplement votre URL de base sur https://api.ofox.ai/v1 et utilisez votre clé API Ofox. L'API est compatible OpenAI — changez simplement l'URL de base et la clé API dans votre code existant.
Z.ai: GLM-5 supporte les capacités suivantes : Function Calling, Raisonnement, Prompt Caching, Recherche web. Accédez à toutes les fonctionnalités via l'API unifiée Ofox.ai.