MiniMax M2.7 自我进化模型深度解读:AI 自己训练自己的时代来了(2026)
为什么这个模型值得你关注
2026 年 4 月 7 日,MiniMax 发布了 M2.7。如果只看名字,你可能以为又是一次常规版本迭代。但这次不一样——M2.7 是第一个在训练过程中实现了”自我进化”的商用大模型。
什么叫自我进化?简单说,M2.7 在训练阶段自己跑了 100 多轮优化,自己发现问题、自己改代码、自己验证效果、自己决定保留还是回滚。不是人盯着调参数,是模型自己干。
结果也不是噱头:SWE-bench Verified 78%,比 Claude Opus 4.6 的 55% 高出一大截;SWE-Pro 拿到 56.22%,接近 Opus;价格还是 $0.30/$1.20——跟 M2.5 一样,比 Opus 便宜 50 倍。
已经在用 M2.7 做开发的读者,接入配置参见 MiniMax M2.7 API 教程。本文聚焦自我进化机制的技术拆解和对开发者的实际影响。
自我进化是怎么实现的
OpenClaw:让 AI 当自己的教练
M2.7 的自我进化建立在 MiniMax 的内部框架 OpenClaw 之上。OpenClaw 本身是一个 Agent 工作流平台,之前已经开源给开发者用了。但在 M2.7 的训练里,MiniMax 把它变成了一个模型自训练系统。
核心循环很直接:模型跑完一轮任务,检查哪些做砸了,定位到具体出错的步骤,然后自己改脚手架代码去修。改完再跑一遍评测,把新旧结果放在一起比,效果好就保留,退步了就回滚。
然后进入下一轮。
这个循环自主跑了 100 多轮,不是象征性做个 demo。
M2.7 自己发现了什么
100 轮跑下来,M2.7 自己摸索出了几个有意思的优化。
一个是采样参数调优。模型自己系统性地搜索温度、频率惩罚等参数的最优组合,找到了比人工调参更好的配置。
另一个更有意思:M2.7 给自己写了新的操作规范。比如修完一个 bug 之后,自动去其他文件里搜索相同的 bug 模式。没人教它这么做,它自己琢磨出来的。
它还在 Agent 执行链里加了死循环检测,防止在复杂任务中卡住。
最终内部评测提升 30%,零人工干预。
实际跑分:不只是自我进化的故事
自我进化是训练方法的创新,但开发者用模型看的是结果。M2.7 的跑分确实撑得起这个故事。
编程能力
| 测试基准 | M2.7 | Claude Opus 4.6 | GPT-5.3 Codex |
|---|---|---|---|
| SWE-bench Verified | 78.0% | 55.0% | — |
| SWE-Pro(多语言) | 56.22% | ~50% | 56.22% |
| Terminal Bench 2 | 82.4% | 74.1% | — |
| VIBE-Pro(项目级交付) | 55.6% | ~56% | — |
SWE-bench Verified 是最大的亮点:78% 对 Opus 的 55%,差了 23 个百分点。这个测试考的是真实 GitHub issue 的修复能力,不是刷题。SWE-Pro 多语言版本上三者打平,都在 56% 左右。Terminal Bench 2 测的是系统级操作和 DevOps 任务,M2.7 拿到 82.4%,Opus 74.1%。
Agent 和工具调用
工具调用准确率 75.8%,Opus 大约 72%。差距不算大,但考虑到 M2.7 训练阶段就是靠 Agent 工作流优化自己的,这个结果在意料之中。
MiniMax 还搞了个叫 MM Claw 的评测集,拿 OpenClaw 里的真实任务出题,包括学习规划、办公文档、代码维护这些。M2.7 拿到 62.7%,接近 Sonnet 4.6。
这对开发者意味着什么
价格层面
M2.7 的定价没有因为能力提升而涨价:
| 模型 | 输入价格 | 输出价格 |
|---|---|---|
| MiniMax M2.7 | $0.30/M | $1.20/M |
| MiniMax M2.7 Highspeed | $0.60/M | $2.40/M |
| Claude Opus 4.6 | $15/M | $75/M |
| GPT-5.3 | $2/M | $10/M |
SWE-bench Verified 比 Opus 高 23 个点,价格便宜 50 倍。
什么时候用 M2.7
代码生成、bug 修复、Agent 工作流,这些日常开发任务 M2.7 完全胜任,成本几乎可以忽略。$0.30 的输入价格意味着你可以放心跑长上下文,不用心疼 token。
复杂多步推理、学术研究、系统架构设计这类需要深度思考的活,Opus 还是更稳。M2.7 不是万能的,但它覆盖的场景已经很广了。
通过 ofox.ai 接入
一行代码切换,不用改业务逻辑:
from openai import OpenAI
client = OpenAI(
api_key="your-ofox-api-key",
base_url="https://api.ofox.ai/v1"
)
response = client.chat.completions.create(
model="minimax/minimax-m2.7",
messages=[{"role": "user", "content": "分析这段代码的性能瓶颈并给出优化方案"}],
)
print(response.choices[0].message.content)
完整的 API 配置、Highspeed 模式选择和 OpenClaw 集成方式,参见 MiniMax M2.7 API 教程 和 OpenClaw + Claude Code 配置教程。
自我进化走到哪一步了
说实话,M2.7 的自我进化还处于早期。MiniMax 自己也承认这一点,官方文章标题就叫”早期回响”。100 轮自主优化提升了 30%,但优化的范围集中在 Agent 脚手架层面,没有碰模型权重本身。
有意思的是方向。从”人训练模型”到”模型参与训练模型”,如果这条路能走下去,后面的版本迭代会快很多。不过这还只是个”如果”。
M2.7 本身已经是一个跑分扎实、价格友好的模型。自我进化的故事有多大后劲,下个版本见分晓。


