GLM-5 is Z.ai’s flagship open-source foundation model engineered for complex systems design and long-horizon agent workflows. Built for expert developers, it delivers production-grade performance on large-scale programming tasks, rivaling leading closed-source models. With advanced agentic planning, deep backend reasoning, and iterative self-correction, GLM-5 moves beyond code generation to full-system construction and autonomous execution.
200K контекстное окно
128K макс. выходных токенов
Дата релиза: 2026-02-11
Поддерживаемые протоколы:openaianthropic
Доступные провайдеры:ZhipuAliyun
Возможности:Function CallingРассуждениеКэширование промптовВеб-поиск
Цены
| Тип | Цена |
|---|---|
| Входные токены | $1/M |
| Выходные токены | $3.2/M |
| Чтение кэша | $0.2/M |
| Веб-поиск | $0.005/R |
Примеры кода
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="z-ai/glm-5",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Похожие модели
Часто задаваемые вопросы
Z.ai: GLM-5 на Ofox.ai стоит $1/M за миллион входных токенов и $3.2/M за миллион выходных токенов. Оплата по потреблению, без абонплаты.
Z.ai: GLM-5 поддерживает контекстное окно 200K токенов с максимальным выходом 128K токенов, позволяя обрабатывать большие документы и вести длинные диалоги.
Просто установите base URL на https://api.ofox.ai/v1 и используйте API-ключ Ofox. API совместим с OpenAI — просто измените base URL и API-ключ в существующем коде.
Z.ai: GLM-5 поддерживает следующие возможности: Function Calling, Рассуждение, Кэширование промптов, Веб-поиск. Все функции доступны через единый API Ofox.ai.