Claude Mythos Preview 是什么:Anthropic 最强模型为何不公开发布(2026)
4 月 7 日,Anthropic 发布了一个模型,然后告诉所有人:你们用不了。
这就是 Claude Mythos Preview。
数字说话
SWE-bench Verified 得分 93.9%。
SWE-bench 测的是模型能否独立解决 GitHub 上的真实 issue,不是写代码片段,是真正修复生产代码库里的 bug。Claude Opus 4.6 的得分是 80.8%,GPT-5.4 大约 82%。Mythos 比这两个高出 10 多个点。
GPQA Diamond(研究生级别科学推理)得分 94.6%。
内部测试里,Mythos 自主发现了所有主流操作系统和浏览器中的数千个零日漏洞,包括一个存在了 27 年的 OpenBSD 漏洞。
不是渐进式提升,是代际跳跃。
为什么不公开
Anthropic 的解释很直接:太危险了。
Mythos 不只是能写漏洞利用代码,它能自主发现漏洞、生成利用链、跨系统组合攻击路径。这种能力落入错误的人手里,后果很难预估。
所以 Anthropic 做了一个不寻常的决定:公开宣布这个模型的存在,但不公开发布它。
目前 Mythos Preview 只对 Project Glasswing 的约 52 个合作机构开放,包括 Apple、Google 等科技公司,以及专业的网络安全研究机构。这些机构用 Mythos 做的是防御性工作——找漏洞、修漏洞,不是利用漏洞。
即便是这些机构,访问也是受控的:通过 Claude API、Amazon Bedrock、Google Vertex AI 或 Microsoft Foundry,定价 $25/M 输入 token、$125/M 输出 token,是 Opus 4.7 的 5 倍。
Project Glasswing 是什么
Project Glasswing 是 Anthropic 围绕 Mythos 建立的网络安全研究框架。
逻辑是:如果 AI 能自主发现漏洞,那就在攻击者用它做坏事之前,先用它把漏洞修掉。用 AI 的进攻能力服务于防御目的。
参与机构需要通过严格审查,签署使用协议,接受 Anthropic 的监督。Glasswing 不是商业化路径,而是在 Mythos 具备更广泛安全保障之前,以受控方式验证其防御价值。
Mythos 和 Opus 4.7 的关系
4 月 16 日,Anthropic 发布了 Claude Opus 4.7。
发布时 Anthropic 明确承认:Opus 4.7 的能力不如 Mythos。厂商主动说自己的新旗舰不是最强的,这不常见。
Opus 4.7 是目前最强的公开可用 Claude 模型,提升幅度不小:
| 指标 | Opus 4.6 | Opus 4.7 | Mythos Preview |
|---|---|---|---|
| SWE-bench Pro | 53.4% | 64.3% | 93.9%(Verified) |
| CursorBench | 58% | 70% | 未公开 |
| 视觉准确率 | 54.5% | 98.5% | 未公开 |
| 定价(输入/输出) | $5/$25 | $5/$25 | $25/$125(受限) |
| 公开可用 | ✅ | ✅ | ❌ |
Mythos 是 Anthropic 的技术天花板展示,Opus 4.7 是你实际能用的最强工具。
Opus 4.7 的详细性能分析和接入方法,参见《Claude Opus 4.7 完全指南》。
Mythos 什么时候会公开
没有时间表。
Anthropic 的说法是:当他们有足够的安全保障措施时。可能是更强的访问控制、更好的滥用检测,或者某种技术上的能力限制方案。
Glasswing 的运作方式表明,Anthropic 在用这段时间积累防御性使用的数据,同时观察受控环境下的风险边界。普通开发者短期内不会有访问权限。
开发者现在怎么办
如果你的工作不涉及专业网络安全研究,Mythos 对你来说是个新闻,不是工具。
实际可用的最强选择是 Claude Opus 4.7。编程任务上它超过了 GPT-5.4 和 Gemini 3.1 Pro,视觉能力的提升让 computer use 场景更可靠,xhigh 思考模式适合需要深度推理的复杂任务。
国内通过 OfoxAI 可以直接调用,模型名 anthropic/claude-opus-4.7,支持 OpenAI 兼容接口,微信支付宝充值,不需要海外信用卡。
Claude API 选型可以参考《Claude Opus 4.6 vs Sonnet 4.6 怎么选》。国内接入的完整方法在《Claude API 国内怎么用》。
这件事说明了什么
Anthropic 选择公开宣布一个不公开发布的模型,这在 AI 行业里很少见。通常要么发布,要么不提。Anthropic 的选择是:告诉你它存在,告诉你它有多强,然后告诉你为什么你现在用不了。
这是透明度,也是一种压力测试——测试行业对”AI 能力超过安全边界”这件事的反应。
反应是复杂的。有人认为 Anthropic 在负责任地处理高风险能力,有人认为这是营销策略,还有人担心这开了一个先例:AI 公司可以单方面决定哪些能力”太危险”而不公开。
不管怎么看,有一件事变了:我们现在知道,AI 在网络安全领域的能力已经到了一个新的量级。这对防御者是机会,对攻击者也是。


