As a 30B-class SOTA model, GLM-4.7-Flash offers a new option that balances performance and efficiency. It is further optimized for agentic coding use cases, strengthening coding capabilities, long-horizon task planning, and tool collaboration, and has achieved leading performance among open-source models of the same size on several current public benchmark leaderboards.
200K コンテキストウィンドウ
128K 最大出力トークン
リリース日: 2026-01-19
対応プロトコル:openaianthropic
利用可能なプロバイダー:Zhipu
機能:Function Calling推論プロンプトキャッシュWeb検索
料金
| タイプ | 料金 |
|---|---|
| 入力トークン | $0.072/M |
| 出力トークン | $0.43/M |
| キャッシュ読込 | $0.015/M |
| Web検索 | $0.005/R |
コード例
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="z-ai/glm-4.7-flashx",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
関連モデル
よくある質問
Ofox.aiでのZ.ai: GLM-4.7 FlashXの料金は、入力100万トークンあたり$0.072/M、出力100万トークンあたり$0.43/Mです。従量課金制、月額料金なし。
Z.ai: GLM-4.7 FlashXは200Kトークンのコンテキストウィンドウと最大128Kトークンの出力に対応。大規模ドキュメントの処理や長い会話の維持が可能です。
ベースURLをhttps://api.ofox.ai/v1に設定し、Ofox APIキーを使用するだけ。OpenAI互換APIなので、既存コードのベースURLとAPIキーを変更するだけです。
Z.ai: GLM-4.7 FlashXは以下の機能に対応:Function Calling, 推論, プロンプトキャッシュ, Web検索。Ofox.ai統合APIですべての機能にアクセスできます。