MiniMax OpenClaw + Claude Code 配置教程:一套 Key 搞定两个工具(2026)

MiniMax OpenClaw + Claude Code 配置教程:一套 Key 搞定两个工具(2026)

为什么要同时配这两个工具

做开发的人多半遇到过这个问题:OpenClaw 和 Claude Code 各有各的好处,只用一个总觉得差点意思。

OpenClaw 是开源 Agent 框架,模型随便换,能接各种渠道做自动化。而 Claude Code 走的是另一条路——Anthropic 的终端编程工具,推理能力强,重构大段代码的时候特别稳。

问题在于 Claude Code 只能用 Claude 模型,而 Claude Sonnet 4.6 的价格($3/$15 每百万 token)跑日常小任务有点浪费。MiniMax M2.7 输入 $0.30、输出 $1.20——十分之一的价格,编码和 Agent 场景够用。

所以比较务实的做法是:OpenClaw 里挂 MiniMax 处理日常任务,Claude Code 留给需要深度思考的场景。两个工具通过 ofox.ai 统一一个 API Key,账单一目了然,不用分别管理。

MiniMax M2.7 的完整能力评测参见《MiniMax M2.7 API 教程》,M2.5 的开源优势和接入方式参见《MiniMax M2.5 API 接入教程》

准备工作:拿到 API Key

不管配哪个工具,第一步都是有一个能调 MiniMax 的 API Key。

最省心的方式是用 ofox.ai 聚合平台——注册后拿到一个 Key,同时能调 MiniMax、Claude、GPT 等 100 多个模型。OpenClaw 和 Claude Code 都用这一个 Key,付费走微信支付宝,不折腾海外信用卡。

你也可以用 MiniMax 官方平台(platform.minimax.io),但那个 Key 只能调 MiniMax 自家模型。考虑到 OpenClaw 通常需要配多个模型做 fallback,聚合平台更实际。

拿到 Key 之后,记下两个信息:

项目
API Key在 ofox.ai 控制台复制
Base URLhttps://api.ofox.ai/v1

OpenClaw 配置 MiniMax M2.7

OpenClaw 的模型配置在 ~/.openclaw/models.yaml 文件里。如果你已经跑过 onboard,这个文件已经存在,直接加 MiniMax 进去就行。

没跑过 onboard 的话,先看《OpenClaw 模型配置完全教程》,那篇从零开始讲,包括目录结构和所有配置参数。

添加模型定义

models.yaml 的 models 列表里加一段 MiniMax 配置。关键字段就四个:base_url、api_key、model 和 name。

model 字段的值取决于你想用哪个版本:

版本model 字段特点
M2.7 标准版minimax/minimax-m2.7性价比最优,$0.30/$1.20
M2.7 Highspeedminimax/minimax-m2.7-highspeed速度翻倍,价格翻倍

注意 model 字段要带 minimax/ 前缀——这是 ofox.ai 聚合平台的命名规则,标识是哪家 provider 的模型。用官方 API 的话不需要前缀。

模型路由策略

光加进去还不够,得在 config.yamlmodel_routing 里告诉 OpenClaw 什么时候用 MiniMax。

实测下来比较靠谱的搭配是三层结构:

层级模型用途
primaryClaude Sonnet 4.6复杂编码、架构分析
economyMiniMax M2.7日常任务、文档生成、简单代码
fallbackGPT-5.4-mini前两个都挂了的兜底

economy 模型处理的任务占日常使用的六七成——commit message、代码注释、简单 debug、文档问答。这些活儿 M2.7 干得很利索,不需要 Claude 那种级别的推理能力。把 M2.7 放在 economy 位置,月底一看账单差别很明显。

如果你之前已经照着《Kimi K2.5 OpenClaw 配置教程》配过 Kimi,现在可以考虑把 Kimi 和 MiniMax 都留着:MiniMax 做 economy,Kimi 做第二 fallback。两家都是国产模型,网络稳定性比调海外 API 好一截。

验证配置

改完配置文件,先跑一下验证命令确认 YAML 语法没问题:

openclaw config validate

再用 /model 命令检查 OpenClaw 是否识别到了新模型。如果列表里看到 MiniMax M2.7,说明配置生效了。

常见问题:

  • model 前缀漏了:填 minimax-m2.7 而不是 minimax/minimax-m2.7,聚合平台会报 model not found
  • base_url 末尾多了斜杠https://api.ofox.ai/v1/ 结尾的 / 会导致路径拼接出错
  • YAML 缩进不对:用空格不要用 Tab,每层缩进两个空格

Claude Code 配置:接入 OfoxAI

Claude Code 的情况跟 OpenClaw 不太一样——它只支持 Anthropic 协议,只能跑 Claude 系列模型。你没办法在 Claude Code 里直接调 MiniMax。

但配 Claude Code 接入 ofox.ai 仍然有用:获得更高的速率配额(RPM/TPM 不限)、多节点故障切换、全球加速低延迟。而且跟 OpenClaw 用同一个平台计费,方便管理。

Claude Code 的完整配置步骤参见《Claude Code 怎么接入第三方 API》,包括五种安装方式和 CC Switch 可视化配置工具。下面说重点。

用 CC Switch 配置

CC Switch 是社区做的可视化配置工具,不用手动改 JSON 文件。安装好之后,添加供应商时填四个信息:

项目填写内容
供应商名称ofoxai-claude
请求地址https://api.ofox.ai/anthropic
API 格式Anthropic Messages(原生)
API Key你的 ofox.ai Key

注意请求地址是 /anthropic 结尾,不是 /v1——Claude Code 走 Anthropic 原生协议,路径不同。

勾选”写入通用配置”点击添加,CC Switch 会自动写入 ~/.claude/settings.json。启动 Claude Code 后按 Esc 跳过登录,顶部显示 API Usage Billing 就说明接入成功了。

手动配置(不用 CC Switch)

如果不想装额外工具,直接编辑 ~/.claude/settings.json,在 apiConfiguration 部分加上 ofox.ai 的信息即可。具体 JSON 格式在那篇 Claude Code 配置文章里有完整示例。

两个工具怎么配合用

工具装好了,关键是怎么分工。用了一段时间之后,总结出来的分工逻辑大致是这样:

场景用哪个为什么
写 commit message、代码注释OpenClaw + MiniMax M2.7简单任务,M2.7 足够,成本低
日常编码辅助、补全OpenClaw + MiniMax M2.7响应快,Highspeed 版体验更好
复杂重构、跨文件改动Claude Code + Sonnet 4.6推理能力强,上下文理解准
架构设计、技术方案Claude Code + Sonnet 4.6需要深度思考,Sonnet 擅长
Agent 自动化任务OpenClaw + MiniMax M2.7跑量场景,成本是首要考量
代码审查、Bug 排查Claude Code + Sonnet 4.6逻辑判断要求高

判断标准就一条:这活儿需不需要动脑子?不需要的丢给 MiniMax,需要的留给 Claude。

想了解 MiniMax M2.5 和 Claude Sonnet 4.6 在编码、推理、中文能力上的详细对比,参见《MiniMax M2.5 vs Claude Sonnet 4.6 vs GPT-5.4 横评》

实际体验:省了多少

用这套组合跑了两周,说说账单和体感。

MiniMax M2.7 处理的任务量大概占七成,Claude 处理三成。之前全用 Sonnet 月均消耗 $80 左右,分流之后 MiniMax 部分大概 $6-8(它真的便宜),Claude 部分 $25 左右,总计 $30 出头。砍了六成开支,日常编码辅助体感差别不大。

区别在复杂任务上。给一个 500 行的 React 组件做重构,M2.7 偶尔丢边界情况的处理,Sonnet 基本不会。这也是为什么不建议全换成 MiniMax——省钱要有底线。

网络方面倒是没担心过。MiniMax 是国产模型,API 延迟比直调海外的 Claude 原生 API 低。OpenClaw 的 fallback 也帮了忙,M2.7 偶尔超时会自动切到 Claude,用的时候几乎无感。

Highspeed 版值不值得用

MiniMax M2.7 有标准版和 Highspeed 两个变体,区别只在速度和价格。

Highspeed 价格翻倍(输入 $0.60,输出 $2.40),但推理速度明显更快。在 OpenClaw 里体感最大的场景是交互式对话——你问一句等回复的时候,Highspeed 能快个一两秒。

建议是:如果你主要做批量任务(生成文档、跑自动化),用标准版,没必要多花钱。如果 OpenClaw 当聊天式 Agent 用、需要实时交互,Highspeed 体验更好。

Claude Code 这边不存在这个选择——它只用 Claude 模型,速度取决于 Anthropic 那边。

常见问题排查

OpenClaw 报 “model not found”

大概率是 model 字段的 provider 前缀写错了。通过 ofox.ai 调用必须带前缀:minimax/minimax-m2.7,不是 minimax-m2.7

Claude Code 能不能也用 MiniMax?

不能。Claude Code 只走 Anthropic 协议,只支持 Claude 系列。想在终端里用 MiniMax,得用 OpenClaw 或者其他支持 OpenAI 协议的工具。

两个工具的 API Key 可以用同一个吗?

可以,但要注意协议不同。OpenClaw 走 OpenAI 兼容协议,base_url 是 https://api.ofox.ai/v1。Claude Code 走 Anthropic 协议,base_url 是 https://api.ofox.ai/anthropic。Key 是同一个,路径不同。

MiniMax 模型在 OpenClaw 里中文好用吗?

很好用。MiniMax 是国内公司,中文训练数据充分,生成质量属于第一梯队。写中文文档、做中文对话这类任务,M2.7 甚至比 Claude Sonnet 更自然。

更多 OpenClaw 配置问题参见《OpenClaw 模型配置完全教程》,Claude Code 问题参见《Claude Code 第三方 API 配置教程》

配完之后

OpenClaw 那边改一下 models.yaml 就行,五分钟的事。Claude Code 接入 ofox.ai 稍多几步但也不复杂。两个工具用同一个 Key 统一计费,月底看一张账单。

实际跑下来的结论:MiniMax 跑量,Claude 干精细活,钱省了六成,活没少干。这大概是 2026 年性价比最高的 AI 开发工具组合之一了。