As a 30B-class SOTA model, GLM-4.7-Flash offers a new option that balances performance and efficiency. It is further optimized for agentic coding use cases, strengthening coding capabilities, long-horizon task planning, and tool collaboration, and has achieved leading performance among open-source models of the same size on several current public benchmark leaderboards.
200K ventana de contexto
128K tokens de salida máximos
Lanzamiento: 2026-01-19
Protocolos Soportados:openaianthropic
Proveedores Disponibles:Zhipu
Capacidades:Function CallingRazonamientoPrompt CachingBúsqueda Web
Precios
| Tipo | Precio |
|---|---|
| Tokens de Entrada | $0.072/M |
| Tokens de Salida | $0.43/M |
| Lectura de Caché | $0.015/M |
| Búsqueda Web | $0.005/R |
Ejemplos de Código
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="z-ai/glm-4.7-flashx",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
Modelos Relacionados
Preguntas Frecuentes
Z.ai: GLM-4.7 FlashX en Ofox.ai cuesta $0.072/M por millón de tokens de entrada y $0.43/M por millón de tokens de salida. Pago por uso, sin cuotas mensuales.
Z.ai: GLM-4.7 FlashX soporta una ventana de contexto de 200K tokens con salida máxima de 128K tokens, permitiéndote procesar documentos extensos y mantener conversaciones largas.
Simplemente configura tu base URL a https://api.ofox.ai/v1 y usa tu API key de Ofox. La API es compatible con OpenAI — solo cambia la base URL y la API key en tu código existente.
Z.ai: GLM-4.7 FlashX soporta las siguientes capacidades: Function Calling, Razonamiento, Prompt Caching, Búsqueda Web. Accede a todas las funciones a través de la API unificada de Ofox.ai.