Kimi K2.5 OpenClaw 配置教程:让 AI Agent 用上最具性价比的国产模型(2026)
为什么在 OpenClaw 里加上 Kimi K2.5
OpenClaw 跑得好不好,很大程度上看你模型怎么配。主力模型处理核心任务,经济模型跑简单活儿,出故障了还得有 fallback 兜底。只挂一个模型的人,要么多花钱,要么被限流。
Kimi K2.5 值得加进来的原因很简单:便宜,而且不弱。输入 $0.60/百万 token,输出 $3.00/百万 token,跟 Claude Sonnet 4.6 的 $3/$15 差了五倍。日均消耗几十万 token 的话,一个月分流简单任务到 K2.5 就能省出一笔可观的开支。
K2.5 的 256K 上下文窗口放在国产模型里很能打,LiveCodeBench 编程分数也不错,中文生成质量属于第一梯队。月之暗面是国内公司,API 直连不用折腾网络。对 OpenClaw 这种需要持续跑任务的工具,网络稳定比什么都重要。
如果你还不了解 Kimi K2.5 的能力和价格细节,建议先看《Kimi K2.5 API 接入教程》,那篇覆盖了完整的模型参数和三种接入方式。
准备工作
配置之前需要两样东西:
首先,OpenClaw 得装好并跑过 onboard。如果 onboard 时选了别的模型也没关系,后面直接改配置文件就行,onboard 只是生成初始配置。
其次,你需要一个 API Key。两条路线选一种:
| 路线 | API Key 来源 | base_url | 优势 |
|---|---|---|---|
| 聚合平台(推荐) | ofox.ai 注册获取 | https://api.ofox.ai/v1 | 一个 Key 同时用 Kimi、Claude、GPT 等 100+ 模型 |
| 月之暗面官方 | platform.moonshot.cn 注册 | https://api.moonshot.cn/v1 | 直连,延迟最低 |
推荐用聚合平台的原因很实际:OpenClaw 本来就是多模型协作的架构,你的 models.yaml 里大概率还有 Claude、GPT 等模型。与其每个模型维护一个 Key,不如统一用一个。
不确定 API Key 怎么拿?参考《Kimi API Key 获取 + 月之暗面 Moonshot API 全流程》。
修改 models.yaml:添加 Kimi K2.5
OpenClaw 的模型配置文件在 ~/.openclaw/models.yaml。打开这个文件,在 models: 列表里加一条 Kimi K2.5 的配置。
通过 ofox.ai 聚合平台接入:
- name: kimi-k2.5
provider: moonshot
model: moonshotai/kimi-k2.5
base_url: https://api.ofox.ai/v1
api_key: ${OPENCLAW_API_KEY}
max_tokens: 16384
temperature: 0.7
timeout: 90
context_window: 262144
通过月之暗面官方 API 接入:
- name: kimi-k2.5
provider: moonshot
model: kimi-k2.5
base_url: https://api.moonshot.cn/v1
api_key: ${MOONSHOT_API_KEY}
max_tokens: 16384
temperature: 0.7
timeout: 60
context_window: 262144
区别在两个地方:model 字段通过聚合平台调用要加 moonshotai/ 前缀,base_url 不同。其他参数一样。
几个参数说明:
- max_tokens 设 16384:K2.5 虽然最大支持 256K 输出,但 OpenClaw 的单轮对话用不了那么多,16K 对 Agent 任务足够
- timeout 设 90:K2.5 处理长文本时响应时间会比短任务长不少,给宽裕一点避免误判超时
- context_window 设 262144:让 OpenClaw 知道这个模型能处理多长的上下文,方便自动分流长任务
关于 models.yaml 每个参数的详细解释,参考《OpenClaw 模型配置完全教程》。
配置模型路由:把 Kimi K2.5 放在合适的位置
加完模型定义还不够,还得告诉 OpenClaw 什么时候用 K2.5。打开 ~/.openclaw/config.yaml,找到 model_routing 部分。
实际项目里根据使用场景,这里推荐三种路由策略:
策略一:K2.5 做经济模型(适合大多数人)
model_routing:
primary: claude-sonnet-4
fallback: gpt-4o
economy: kimi-k2.5
最稳妥的配法。主力任务交给 Claude Sonnet,推理和编程靠谱。文本摘要、格式转换、信息提取这些简单活自动走 K2.5,token 账单马上就能看出区别。
策略二:K2.5 做主力模型(适合中文场景和预算敏感型)
model_routing:
primary: kimi-k2.5
fallback: claude-sonnet-4
economy: deepseek-v3.2
如果你的 OpenClaw 主要处理中文任务——写内容、整理资料、代码辅助——K2.5 完全胜任。遇到英文复杂推理再 fallback 到 Claude。这套配置下来,月均成本大概能降到策略一的三分之一。
策略三:纯国产模型组合(完全国内直连)
model_routing:
primary: kimi-k2.5
fallback: deepseek-v3.2
economy: glm-5
不走任何海外 API,全部国内直连。网络最稳定,延迟最低。代价是遇到特别吃英文推理能力的任务,表现会比 Claude/GPT 弱一些。适合对网络稳定性要求极高、或者政策合规有要求的场景。
验证配置是否生效
改完配置之后,跑一下验证确保没写错:
openclaw config validate
没报错的话,用 /model 命令切换到 Kimi K2.5 试一下:
/model kimi-k2.5
然后随便问个问题,看看是不是正常返回。如果报错,常见原因是:
- model 字段前缀问题:用聚合平台必须写
moonshotai/kimi-k2.5,不是kimi-k2.5 - base_url 末尾斜杠:有些 API 对
https://api.ofox.ai/v1和https://api.ofox.ai/v1/的处理不一样,建议不加末尾斜杠 - API Key 无效:环境变量没设对,或者 Key 过期了。检查
echo $OPENCLAW_API_KEY是否有值
更多报错场景的排查方法,参考《OpenClaw 报错排查手册》。
用了一周的感受
中文生成质量让我有点意外。拿 K2.5 写技术文档和会议纪要,措辞自然度不输 Claude Sonnet,有些中文表达甚至比海外模型更地道。国产模型在中文语料上下了功夫,能感觉到。
编程方面,日常的 Python 脚本、Shell 命令、配置文件生成都没问题。复杂的架构设计或多文件重构还是 Claude 更可靠,但作为 economy 模型跑代码辅助绰绰有余。
256K 上下文是个实在的好处。整个项目的代码丢给 K2.5 分析不用担心截断,做 code review、分析日志的时候,比 GPT-5.4 的 128K 窗口宽裕不少。
成本方面,分流一周后 token 账单降了大约 40%。输入端省得尤其多——带上下文的代码分析任务 prompt 本身就长,输入价格差五倍,账单差距很直观。
和旧版 Kimi 模型的关系
聚合平台上可能还能看到 moonshot-v1-128k 之类的旧版模型。实测下来 K2.5 各方面都超过了旧版 moonshot 系列,没有特殊兼容性需求就直接用 K2.5。
K2.5 还有个 Agent Swarm 功能,让多个 Agent 自主协作。这个能力和 OpenClaw 的多 Agent 调度有一些重叠,具体怎么配合是另一个话题了。
如果你好奇 K2.5 和其他同级模型的实际表现差异,推荐看《Kimi K2.5 vs Claude Sonnet 4.6 vs GPT-5.4 横评》。
总结
| 配置项 | 聚合平台方式 | 官方直连方式 |
|---|---|---|
| model | moonshotai/kimi-k2.5 | kimi-k2.5 |
| base_url | https://api.ofox.ai/v1 | https://api.moonshot.cn/v1 |
| 价格(输入/输出) | $0.60 / $3.00 per M tokens | 同上 |
| 推荐路由位置 | economy 或 primary | economy 或 primary |
| 最适合的场景 | 中文生成、代码辅助、长文档处理 | 同上 |
配好之后该省的地方省,该上旗舰的地方上旗舰,模型路由就是干这个的。
还没配过 OpenClaw 的话,从《OpenClaw 模型配置完全教程》开始。只想了解 Kimi K2.5 本身,看《Kimi K2.5 API 接入教程》。


