Claude Mythos Preview 是什么:Anthropic 最强模型为何不公开发布(2026)

Claude Mythos Preview 是什么:Anthropic 最强模型为何不公开发布(2026)

4 月 7 日,Anthropic 发布了一个模型,然后告诉所有人:你们用不了。

这就是 Claude Mythos Preview。

数字说话

SWE-bench Verified 得分 93.9%。

SWE-bench 测的是模型能否独立解决 GitHub 上的真实 issue,不是写代码片段,是真正修复生产代码库里的 bug。Claude Opus 4.6 的得分是 80.8%,GPT-5.4 大约 82%。Mythos 比这两个高出 10 多个点。

GPQA Diamond(研究生级别科学推理)得分 94.6%。

内部测试里,Mythos 自主发现了所有主流操作系统和浏览器中的数千个零日漏洞,包括一个存在了 27 年的 OpenBSD 漏洞。

不是渐进式提升,是代际跳跃。

为什么不公开

Anthropic 的解释很直接:太危险了。

Mythos 不只是能写漏洞利用代码,它能自主发现漏洞、生成利用链、跨系统组合攻击路径。这种能力落入错误的人手里,后果很难预估。

所以 Anthropic 做了一个不寻常的决定:公开宣布这个模型的存在,但不公开发布它。

目前 Mythos Preview 只对 Project Glasswing 的约 52 个合作机构开放,包括 Apple、Google 等科技公司,以及专业的网络安全研究机构。这些机构用 Mythos 做的是防御性工作——找漏洞、修漏洞,不是利用漏洞。

即便是这些机构,访问也是受控的:通过 Claude API、Amazon Bedrock、Google Vertex AI 或 Microsoft Foundry,定价 $25/M 输入 token、$125/M 输出 token,是 Opus 4.7 的 5 倍。

Project Glasswing 是什么

Project Glasswing 是 Anthropic 围绕 Mythos 建立的网络安全研究框架。

逻辑是:如果 AI 能自主发现漏洞,那就在攻击者用它做坏事之前,先用它把漏洞修掉。用 AI 的进攻能力服务于防御目的。

参与机构需要通过严格审查,签署使用协议,接受 Anthropic 的监督。Glasswing 不是商业化路径,而是在 Mythos 具备更广泛安全保障之前,以受控方式验证其防御价值。

Mythos 和 Opus 4.7 的关系

4 月 16 日,Anthropic 发布了 Claude Opus 4.7。

发布时 Anthropic 明确承认:Opus 4.7 的能力不如 Mythos。厂商主动说自己的新旗舰不是最强的,这不常见。

Opus 4.7 是目前最强的公开可用 Claude 模型,提升幅度不小:

指标Opus 4.6Opus 4.7Mythos Preview
SWE-bench Pro53.4%64.3%93.9%(Verified)
CursorBench58%70%未公开
视觉准确率54.5%98.5%未公开
定价(输入/输出)$5/$25$5/$25$25/$125(受限)
公开可用

Mythos 是 Anthropic 的技术天花板展示,Opus 4.7 是你实际能用的最强工具。

Opus 4.7 的详细性能分析和接入方法,参见《Claude Opus 4.7 完全指南》

Mythos 什么时候会公开

没有时间表。

Anthropic 的说法是:当他们有足够的安全保障措施时。可能是更强的访问控制、更好的滥用检测,或者某种技术上的能力限制方案。

Glasswing 的运作方式表明,Anthropic 在用这段时间积累防御性使用的数据,同时观察受控环境下的风险边界。普通开发者短期内不会有访问权限。

开发者现在怎么办

如果你的工作不涉及专业网络安全研究,Mythos 对你来说是个新闻,不是工具。

实际可用的最强选择是 Claude Opus 4.7。编程任务上它超过了 GPT-5.4 和 Gemini 3.1 Pro,视觉能力的提升让 computer use 场景更可靠,xhigh 思考模式适合需要深度推理的复杂任务。

国内通过 OfoxAI 可以直接调用,模型名 anthropic/claude-opus-4.7,支持 OpenAI 兼容接口,微信支付宝充值,不需要海外信用卡。

Claude API 选型可以参考《Claude Opus 4.6 vs Sonnet 4.6 怎么选》。国内接入的完整方法在《Claude API 国内怎么用》

这件事说明了什么

Anthropic 选择公开宣布一个不公开发布的模型,这在 AI 行业里很少见。通常要么发布,要么不提。Anthropic 的选择是:告诉你它存在,告诉你它有多强,然后告诉你为什么你现在用不了。

这是透明度,也是一种压力测试——测试行业对”AI 能力超过安全边界”这件事的反应。

反应是复杂的。有人认为 Anthropic 在负责任地处理高风险能力,有人认为这是营销策略,还有人担心这开了一个先例:AI 公司可以单方面决定哪些能力”太危险”而不公开。

不管怎么看,有一件事变了:我们现在知道,AI 在网络安全领域的能力已经到了一个新的量级。这对防御者是机会,对攻击者也是。