Anthropic新模型Mythos/Capybara泄漏

作者:FancyPig | 发布时间:

杂谈

由于外部 CMS 工具配置失误,Anthropic 意外泄露了一款尚未发布的模型信息。Fortune 率先发现并核实了这批存储在公开可访问缓存中的草稿文档,从而曝光了该模型的核心细节。

根据泄露内容,这款新模型名为“Claude Mythos”,内部代号为“Capybara”(水豚)。其定位并非现有体系内的升级版本,而是一个全新的模型层级:在当前产品线 Haiku(轻量高效)、Sonnet(中等性能)和 Opus(最高性能)之上,进一步引入第四档,代表更高规模与能力上限的模型范式。


官方随后确认了该模型的存在。Anthropic 发言人将其描述为一次“阶梯式跨越”(step change),并称其为“迄今最强模型”。目前,该模型尚未公开发布,仅在少量早期客户中进行受控测试。

从能力表现来看,泄露的博客草稿显示,Mythos 在软件工程、复杂推理以及网络安全等关键评测维度上,显著超越此前最强的 Claude Opus 4.6。其中,网络安全能力的描述尤为激进:Anthropic 在内部表述中称,该模型“已明显领先当前所有其他 AI 系统”,并进一步指出,其能力可能预示着一轮由 AI 驱动的漏洞利用浪潮,其演进速度将超过传统防御体系的响应能力。

基于上述潜在风险,Anthropic 采取了极为谨慎的发布策略。不同于常规模型先面向开发者或公众开放,该模型优先向网络安全防御机构提供早期访问,以期在攻防不对称扩大前,为防守方争取技术缓冲时间。此外,由于模型计算成本极高,其大规模商业化发布仍依赖于后续的效率优化。


从事件本身来看,此次泄露亦具有一定启示意义。Anthropic 将原因归因于第三方 CMS 工具的人为配置错误,并明确表示事件与其 Claude 模型或 AI 编码工具无关。值得注意的是,同批泄露文档中还包含一场面向大型企业客户的闭门活动细节——该活动计划在英国一处 18 世纪庄园酒店举办,属于其高端客户拓展与产品推广策略的一部分。

但是这个博文还是被眼疾手快的网友给存档了。可以看下原文

https://m1astra-mythos.pages.dev/

原文翻译

Mythos v1

Mythos 是一个全新的模型层级名称:其规模更大、智能水平更高,超越了此前我们最强的 Opus 系列模型。我们选择这一名称,是希望体现其能够在知识与思想之间建立深层连接的能力。


与此前最佳模型 Claude Opus 4.6 相比,Mythos 在多个领域(包括软件编程、学术推理以及网络安全等)均取得了显著提升。


在准备发布 Claude Mythos 的过程中,我们希望以更审慎的方式推进,充分理解其潜在风险——不仅限于我们内部测试所能发现的范围。特别是在网络安全领域,我们希望评估该模型在短期内可能带来的风险,并将相关研究结果共享,以帮助网络安全防御方提前做好准备。


Mythos 同时也是一个规模庞大、计算密集型的模型。其运行成本极高,无论对我们还是对客户而言,使用成本都非常昂贵。因此,在进行广泛发布之前,我们仍在持续优化其效率。

基于上述原因,我们对 Mythos 的发布采取了比以往模型更为缓慢、渐进的策略。当前仅向少量早期接入客户开放,这些客户将重点探索其在网络安全领域的应用,并反馈实际使用情况。

网络安全领域的先发优势

在过去几个月中,我们多次讨论 AI 模型在网络安全能力方面的快速进展——这些能力既可能被用于防御,也可能被用于攻击。我们已经验证,模型可以被用于快速发现代码库中的漏洞;同时,也观察到其已被用于发起大规模网络攻击。


尽管 Mythos 当前在网络安全能力上显著领先于其他 AI 模型,但它也预示着一波即将到来的新模型浪潮——这些模型在漏洞利用方面的能力,将远远超过防御方的应对速度。


正因如此,我们围绕 Mythos 的发布策略重点面向网络安全防御方:通过向相关组织提供早期访问权限,使其能够提前加固代码系统,从而应对即将到来的 AI 驱动攻击浪潮。

发布前安全测试

与我们所有模型一样,Claude Mythos 已在广泛的安全性与能力评测体系下进行了测试。

发布范围扩展

在接下来的数周内,我们将通过 Claude API 逐步向更多客户开放 Mythos 的使用权限。鉴于我们当前重点关注其在网络安全领域的应用,初期扩展将优先集中在相关使用场景。

Capybara V2

我们已经完成了一款全新 AI 模型的训练:Claude Mythos。这是迄今为止我们开发的最强大模型。

“Capybara”是这一全新模型层级的内部代号:其规模更大、智能水平更高,超越了此前作为最强模型的 Opus 系列。我们选择这一名称,是为了体现其能够在知识与思想之间构建深层连接的能力。

与此前最佳模型 Claude Opus 4.6 相比,Capybara 在软件编程、学术推理以及网络安全等多项测试中,均取得了显著更高的成绩。

在准备发布 Claude Capybara 的过程中,我们采取了更加审慎的态度,希望全面理解其潜在风险——包括那些可能超出内部测试所能覆盖的部分。尤其是在网络安全领域,我们希望评估其在短期内可能带来的风险,并将相关研究结果共享,以帮助防御方提前做好准备。


Capybara 同时也是一个规模庞大、计算密集型模型。其服务成本极高,无论对我们还是对客户而言,使用成本都相当昂贵。因此,在进行大规模发布之前,我们正在持续优化其效率。


基于上述原因,我们对 Capybara 的发布采取了比以往模型更为缓慢、渐进的策略。当前仅向少量早期接入客户开放,这些客户将重点探索其在网络安全领域的应用,并反馈实际使用情况。

网络安全领域的先发优势

在过去几个月中,我们多次讨论 AI 模型在网络安全能力方面的快速进展——这些能力既可能被用于防御,也可能被用于攻击。我们已经验证,模型可以被用于快速发现代码库中的漏洞;同时,也观察到其已被用于发起大规模网络攻击。


尽管 Capybara 当前在网络安全能力上明显领先于其他 AI 模型,但它也预示着一波即将到来的新模型浪潮——这些模型在漏洞利用方面的能力,将远远超过防御方的应对速度。


正因如此,我们围绕 Capybara 的发布策略重点面向网络安全防御方:通过向相关组织提供早期访问权限,使其能够提前加固代码系统,从而应对即将到来的 AI 驱动漏洞利用浪潮。


发布前安全测试

与我们所有模型一样,Claude Capybara 已在广泛的安全性与能力评测体系下进行了测试。


发布范围扩展

在接下来的数周内,我们将通过 Claude API 逐步向更多客户开放 Capybara 的使用权限。鉴于我们当前重点关注其在网络安全领域的应用,初期扩展将优先集中在相关场景。

标签:claude code, AI代码生成, 新一代大模型, 最强AI模型, AI驱动攻击, 大模型分层体系, Claude Mythos, AI能力评测, capybara, AI安全风险评估, AI推理能力测试, AI EAP计划, 负责任AI发布, AI漏洞利用, AI网络战趋势, Anthropic AI模型, AI效率优化, Capybara模型, Mythos模型发布, AI威胁情报, 高算力AI模型, AI攻防对抗, AI防御准备, AI安全行业趋势, AI高性能计算模型, AI风险控制, AI模型测试方法, Anthropic新模型, AI安全技术发展, AI漏洞扫描, AI防御先发优势, AI成本优化, AI安全防御体系, AI与Opus对比, AI攻击模拟, AI模型优化方向, AI软件工程能力, AI驱动安全创新, Haiku Sonnet Opus Mythos体系, 超算AI模型, AI网络安全能力测试, AI蓝队防御, AI安全运营, AI模型架构演进, AI模型能力提升, AI漏洞挖掘, mythos, Claude Capybara, AI漏洞赏金工具, Claude Opus 4.6对比, AI exploit开发, AI安全发布策略, AI性能基准测试, 超大规模AI模型, AI编程能力测试, AI安全挑战, AI早期访问计划, AI模型安全测试, AI SOC系统, AI威胁建模, AI发布策略, AI网络安全模型, AI安全研究工具, 前沿大模型, Opus模型升级, 企业安全AI, AI模型安全评估, AI零日漏洞发现, AI安全生态, Claude API接入, AI安全竞争, AI漏洞利用自动化, AI自动化防御, AI网络攻击能力, AI自动代码审查, AI治理体系, AI攻防速度差, AI代码审计, AI代码分析, 高级AI编程助手, AI能力评估, 企业级AI应用, AI学术推理能力, AI网络安全应用场景, AI红队能力, 高成本AI推理, Claude API Mythos, AI渗透测试辅助, Anthropic Claude API, AI安全策略, AI模型商业化, AI渐进式发布