As a 30B-class SOTA model, GLM-4.7-Flash offers a new option that balances performance and efficiency. It is further optimized for agentic coding use cases, strengthening coding capabilities, long-horizon task planning, and tool collaboration, and has achieved leading performance among open-source models of the same size on several current public benchmark leaderboards.
200K 컨텍스트 윈도우
128K 최대 출력 토큰
출시일: 2026-01-19
지원 프로토콜:openaianthropic
제공업체:Zhipu
기능:Function Calling프롬프트 캐싱웹 검색
요금
| 유형 | 요금 |
|---|---|
| 입력 토큰 | $0/M |
| 출력 토큰 | $0/M |
| 웹 검색 | $0.005/R |
코드 예제
from openai import OpenAIclient = OpenAI(base_url="https://api.ofox.ai/v1",api_key="YOUR_OFOX_API_KEY",)response = client.chat.completions.create(model="z-ai/glm-4.7-flash:free",messages=[{"role": "user", "content": "Hello!"}],)print(response.choices[0].message.content)
관련 모델
자주 묻는 질문
Z.ai: GLM-4.7-Flash (Free)은(는) Ofox.ai에서 입력 $0/백만 토큰, 출력 $0/백만 토큰입니다. 종량제, 월정액 없음.
Z.ai: GLM-4.7-Flash (Free)은(는) 200K 토큰의 컨텍스트 윈도우와 최대 128K 토큰 출력을 지원하여, 대용량 문서 처리와 장기 대화가 가능합니다.
base URL을 https://api.ofox.ai/v1로 설정하고 Ofox API Key를 사용하면 됩니다. OpenAI 호환 API — 기존 코드에서 base URL과 API Key만 변경하면 됩니다.
Z.ai: GLM-4.7-Flash (Free)은(는) Function Calling, 프롬프트 캐싱, 웹 검색 기능을 지원합니다. Ofox.ai 통합 API로 모든 기능에 접근하세요.