Anthropic新模型Mythos/Capybara泄漏
作者:FancyPig | 发布时间:
杂谈
由于外部 CMS 工具配置失误,Anthropic 意外泄露了一款尚未发布的模型信息。Fortune 率先发现并核实了这批存储在公开可访问缓存中的草稿文档,从而曝光了该模型的核心细节。
根据泄露内容,这款新模型名为“Claude Mythos”,内部代号为“Capybara”(水豚)。其定位并非现有体系内的升级版本,而是一个全新的模型层级:在当前产品线 Haiku(轻量高效)、Sonnet(中等性能)和 Opus(最高性能)之上,进一步引入第四档,代表更高规模与能力上限的模型范式。
官方随后确认了该模型的存在。Anthropic 发言人将其描述为一次“阶梯式跨越”(step change),并称其为“迄今最强模型”。目前,该模型尚未公开发布,仅在少量早期客户中进行受控测试。
从能力表现来看,泄露的博客草稿显示,Mythos 在软件工程、复杂推理以及网络安全等关键评测维度上,显著超越此前最强的 Claude Opus 4.6。其中,网络安全能力的描述尤为激进:Anthropic 在内部表述中称,该模型“已明显领先当前所有其他 AI 系统”,并进一步指出,其能力可能预示着一轮由 AI 驱动的漏洞利用浪潮,其演进速度将超过传统防御体系的响应能力。
基于上述潜在风险,Anthropic 采取了极为谨慎的发布策略。不同于常规模型先面向开发者或公众开放,该模型优先向网络安全防御机构提供早期访问,以期在攻防不对称扩大前,为防守方争取技术缓冲时间。此外,由于模型计算成本极高,其大规模商业化发布仍依赖于后续的效率优化。
从事件本身来看,此次泄露亦具有一定启示意义。Anthropic 将原因归因于第三方 CMS 工具的人为配置错误,并明确表示事件与其 Claude 模型或 AI 编码工具无关。值得注意的是,同批泄露文档中还包含一场面向大型企业客户的闭门活动细节——该活动计划在英国一处 18 世纪庄园酒店举办,属于其高端客户拓展与产品推广策略的一部分。
但是这个博文还是被眼疾手快的网友给存档了。可以看下原文
https://m1astra-mythos.pages.dev/

原文翻译
Mythos v1
Mythos 是一个全新的模型层级名称:其规模更大、智能水平更高,超越了此前我们最强的 Opus 系列模型。我们选择这一名称,是希望体现其能够在知识与思想之间建立深层连接的能力。
与此前最佳模型 Claude Opus 4.6 相比,Mythos 在多个领域(包括软件编程、学术推理以及网络安全等)均取得了显著提升。
在准备发布 Claude Mythos 的过程中,我们希望以更审慎的方式推进,充分理解其潜在风险——不仅限于我们内部测试所能发现的范围。特别是在网络安全领域,我们希望评估该模型在短期内可能带来的风险,并将相关研究结果共享,以帮助网络安全防御方提前做好准备。
Mythos 同时也是一个规模庞大、计算密集型的模型。其运行成本极高,无论对我们还是对客户而言,使用成本都非常昂贵。因此,在进行广泛发布之前,我们仍在持续优化其效率。
基于上述原因,我们对 Mythos 的发布采取了比以往模型更为缓慢、渐进的策略。当前仅向少量早期接入客户开放,这些客户将重点探索其在网络安全领域的应用,并反馈实际使用情况。
网络安全领域的先发优势
在过去几个月中,我们多次讨论 AI 模型在网络安全能力方面的快速进展——这些能力既可能被用于防御,也可能被用于攻击。我们已经验证,模型可以被用于快速发现代码库中的漏洞;同时,也观察到其已被用于发起大规模网络攻击。
尽管 Mythos 当前在网络安全能力上显著领先于其他 AI 模型,但它也预示着一波即将到来的新模型浪潮——这些模型在漏洞利用方面的能力,将远远超过防御方的应对速度。
正因如此,我们围绕 Mythos 的发布策略重点面向网络安全防御方:通过向相关组织提供早期访问权限,使其能够提前加固代码系统,从而应对即将到来的 AI 驱动攻击浪潮。
发布前安全测试
与我们所有模型一样,Claude Mythos 已在广泛的安全性与能力评测体系下进行了测试。
发布范围扩展
在接下来的数周内,我们将通过 Claude API 逐步向更多客户开放 Mythos 的使用权限。鉴于我们当前重点关注其在网络安全领域的应用,初期扩展将优先集中在相关使用场景。
Capybara V2
我们已经完成了一款全新 AI 模型的训练:Claude Mythos。这是迄今为止我们开发的最强大模型。
“Capybara”是这一全新模型层级的内部代号:其规模更大、智能水平更高,超越了此前作为最强模型的 Opus 系列。我们选择这一名称,是为了体现其能够在知识与思想之间构建深层连接的能力。
与此前最佳模型 Claude Opus 4.6 相比,Capybara 在软件编程、学术推理以及网络安全等多项测试中,均取得了显著更高的成绩。
在准备发布 Claude Capybara 的过程中,我们采取了更加审慎的态度,希望全面理解其潜在风险——包括那些可能超出内部测试所能覆盖的部分。尤其是在网络安全领域,我们希望评估其在短期内可能带来的风险,并将相关研究结果共享,以帮助防御方提前做好准备。
Capybara 同时也是一个规模庞大、计算密集型模型。其服务成本极高,无论对我们还是对客户而言,使用成本都相当昂贵。因此,在进行大规模发布之前,我们正在持续优化其效率。
基于上述原因,我们对 Capybara 的发布采取了比以往模型更为缓慢、渐进的策略。当前仅向少量早期接入客户开放,这些客户将重点探索其在网络安全领域的应用,并反馈实际使用情况。
网络安全领域的先发优势
在过去几个月中,我们多次讨论 AI 模型在网络安全能力方面的快速进展——这些能力既可能被用于防御,也可能被用于攻击。我们已经验证,模型可以被用于快速发现代码库中的漏洞;同时,也观察到其已被用于发起大规模网络攻击。
尽管 Capybara 当前在网络安全能力上明显领先于其他 AI 模型,但它也预示着一波即将到来的新模型浪潮——这些模型在漏洞利用方面的能力,将远远超过防御方的应对速度。
正因如此,我们围绕 Capybara 的发布策略重点面向网络安全防御方:通过向相关组织提供早期访问权限,使其能够提前加固代码系统,从而应对即将到来的 AI 驱动漏洞利用浪潮。
发布前安全测试
与我们所有模型一样,Claude Capybara 已在广泛的安全性与能力评测体系下进行了测试。
发布范围扩展
在接下来的数周内,我们将通过 Claude API 逐步向更多客户开放 Capybara 的使用权限。鉴于我们当前重点关注其在网络安全领域的应用,初期扩展将优先集中在相关场景。