最近几天,我把Mythos公开的技术文档、Anthropic CEO Dario Amodei(达里奥·阿莫迪)最近的发言、外界的测评和争议,全部翻了一遍。说实话,很多技术细节没公开。我又去翻了阿莫迪去年和今年写的两篇长文……
以下,我从阿莫迪的方法论入手,把Mythos是什么、强在哪里、争议,全部整理出来,加上我的判断,跟大家分享。
阿莫迪是意大利裔美国人,拥有斯坦福大学物理学学士及普林斯顿大学生物物理学博士学位,曾在斯坦福大学医学院从事博士后研究。2014年在百度硅谷AI实验室工作,后加入谷歌从事语音识别研究。2016年进入OpenAI随后升任研究副总裁,主导开发GPT-2、GPT-3模型及强化学习算法。2021年因与OpenAI在商业化与AI安全理念上的分歧,携团队创立Anthropic(人类的意思),专注AI安全性与可解释性,采用宪法式AI框架进行道德准则训练。
一、阿莫迪的方法论:AI怎么变强,以及变强后怎么办
2025年1月,阿莫迪写过一篇关于DeepSeek和AI发展规律的万字长文。在那篇文章里,他提出了三个核心动态:
第一,扩展定律:算力增加10倍,AI的能力就会上一个台阶。这是基础驱动力。
第二,曲线偏移:算法创新会带来“算力倍增效应”,让效率每年提升4倍左右(我感觉他在创造一个类摩尔定律,暂且叫阿莫迪定律)。注意,效率提升不等于“省钱”——Anthropic选择把省下来的效率用在训练更强的模型上,而不是降价。
第三,范式转变:AI扩展的“对象”在变。从预训练到强化学习推理,从单模型到多智能体协作。每一次范式切换,都是一个“弯道超车”的窗口——前期投入不算大,但收益可能很大。
2026年1月,阿莫迪又写了一篇《技术的青春期》。这篇文章里,他把话题从“怎么变强”转向了“变强后怎么办”。
他做了一个假设:2027年左右,可能会出现一个“数据中心里的天才之国”——5000万个超级智能体,每个都比诺贝尔奖得主聪明,学习速度是人类的10到100倍。
问题不是它们会不会有“恶意”,而是它们的行为可能根本不可预测。阿莫迪在文章里列了五大风险,排在最前面的两条是:
- AI不可控:可能自己做出人类没让它做的事
- AI被滥用:坏人可以用它搞破坏,门槛降到历史最低
阿莫迪反复强调:这些风险发生的概率“可测量,但并非微不足道”。他的态度是:承认不确定性,但提前做准备。
而Mythos,就是按他的方法论“长”出来的产物。
他2014年在百度硅谷实验室与吴恩达一起做语音识别研究时,就发现了Scaling Laws(缩放法则/扩展定律),是深度学习领域的核心经验规律,简单说就是:模型性能会随着模型规模、数据量和计算力的增加而可预测地提升,此后十年一直坚信:算力=智能,效率每年提升4倍,范式转变期是弯道超车窗口。
(基于以上理论以及DeekSeek发布后的全球震撼效果,阿莫迪主张对中国实施芯片出口管制以确保美国在人工智能领域的全球优势。)
二、Mythos是什么?
2026年4月7日,Anthropic正式披露了Claude Mythos Preview。
它是一个通用语言模型,不是安全专用模型,小编预计参数量可能在1-3万亿之间。官方说法是:各项任务都强,只是在网络安全任务上“惊人地出色”。
Mythos不是Opus的升级版。Anthropic原本有三档模型:Haiku(最快最便宜)、Sonnet(平衡)、Opus(最强)。Mythos直接跳过了“Opus 5.0”,在Opus之上开了一个全新层级。
它的内部代号叫Capybara(水豚)。
最特别的是发布方式:这是Claude第一个不公开发布的旗舰模型。没有开放API,没有更新模型选项,没有发排行榜。Mythos只给了12家企业(AWS、苹果、谷歌、微软、英伟达、思科、摩根大通等)和40多家关键基础设施机构试用。Anthropic提供了1亿美元的使用额度,并捐了400万美元给开源安全项目。
普通用户、独立开发者,没有任何渠道能接触到Mythos。
三、Mythos比Opus 4.6强在哪?
先说编程能力。
Anthropic自己的评价是:Mythos在软件编程测试中取得了“显著更高的分数”。在SWE-bench Pro(最接近真实软件工程场景的评测)上,Mythos得分77.8%,Opus 4.6是57.3%,高出20个百分点。此前Opus 4.6和GPT-5.4的差距通常只有个位数。Mythos一跳就是20个点。
再说网络安全能力。这是真正让Anthropic害怕的地方。
官方报告里给了几个真实案例:
- 在号称“最安全”的OpenBSD操作系统中,找到一个藏了27年的远程崩溃漏洞
- 在被安全研究人员扫描超500万次的开源项目FFmpeg(视频程序)中,找出一个隐藏16年的漏洞
- 自主发现并利用一个17年的漏洞,从普通用户提权到FreeBSD服务器的root权限
最让Anthropic警觉的是另一个事。研究人员让Mythos试着突破测试沙箱,它不仅做到了,还在没有任何人指示的情况下,主动把攻击细节发布到了几个公开网站上。
这些事以前只有国家级黑客团队能做到。
还有一个重要的技术细节:Mythos不是被“训练”成安全专家的。它的安全能力,是通用智能提升带来的“副作用”。
阿莫迪的原话是:“我们没有专门训练它去擅长网络安全,我们训练它擅长编码。但作为擅长编码的附带效应,它也变得擅长网络安全。”
这意味着:当模型的编程和推理能力达到某个临界点,网络安全能力会自己“长出来”——不需要专门喂安全数据。这可能就是阿莫迪说的“范式转变”吗?
四、技术架构:可能用了什么新技术?
Anthropic没有公开Mythos的架构。但研究者从测试数据里发现了三条线索,指向同一个猜测:Mythos可能用了循环语言模型(Looped Language Model) 。
这个概念来自字节Seed团队与多个高校合作的一篇论文,图灵奖得主Yoshua Bengio也参与了。
线索一:图搜索测试异常高
在GraphWalks BFS(广度优先图搜索)测试中,Mythos得分80%,Opus 4.6只有38.7%,GPT-5.4只有21.4%。这种4倍的差距,在其他任务上没出现。说明这不是“规模越大越强”,而是架构创新。
线索二:token少但速度慢
Anthropic报告说,Mythos在SWE-bench上消耗的token只有Opus的五分之一,但推理速度反而更慢。说明模型内部可能在“潜空间”反复思考(不输出为token)。
线索三:漏洞发现的本质是“图遍历”
找漏洞,本质上就是在代码的控制流图里找一条路——从输入走到危险函数。这是图的可达性问题,正好是循环架构的强项。
什么是循环语言模型?
简单说:标准模型处理一个问题,从头走到尾,只想一遍。循环模型可以在内部反复想,来回处理好几遍,而且不输出中间过程。
字节团队的实验数据:1.4B参数的循环模型,性能约等于4B的传统模型;2.8B的循环模型,相当于8B到12B的传统模型。
循环模型没有给AI一个更大的知识库,但它让AI在知识库里搜索和组合的能力提升了一个量级。
如果这个猜测是对的,Mythos的真正突破就不在参数规模,而在“怎么思考”——这正好印证了阿莫迪说的“范式转变期投入小、收益大”。
五、为什么不公开发布?
Anthropic的判断很简单:发布风险大于收益。
三个原因:
- 零日漏洞发现能力:Mythos能在几周内自主发现“数千个”高危零日漏洞,覆盖Linux内核、OpenBSD、Firefox、FFmpeg等主流系统
- 自主攻击行为:突破沙箱后主动把攻击细节发到网上,没人让它这么做
- 政府介入:美国财政部和美联储紧急召集华尔街各大银行开会,讨论Mythos可能带来的系统性网络风险
阿莫迪还透露,在Mythos发布前,Anthropic已经向联邦政府多位高层做了简报,让政府及早介入。还说:“搞错的危险是显而易见的。但如果我们做对了,就有机会创造一个比AI攻击出现之前更安全的互联网。”
还有个细节:2019年,时任OpenAI研究总监的阿莫迪曾主张GPT-2“太危险不能发布”。6年后,他作为Anthropic的CEO,再次做出了同样的判断。
六、争议:神话还是谎言?
Mythos发布后,质疑声很快来了(可能是那12家企业和40多家研究机构试用后)。
漏洞数量“注水”
“数千个漏洞”这个数字,并非全部经过核实。它是基于198份人工审计报告中90%的准确率做的数学推算。更严重的是,大量被标记的问题其实是陈旧软件的功能缺陷,现代防御机制下几乎无法利用。一位安全专家直言,真正“严重”级别的漏洞,实测下来只有10个左右。
开源模型也能做到
AISLE实验室用8个开源模型(最小的只有36亿参数),全部成功复现了Mythos标志性的FreeBSD漏洞,最低调用成本只要0.11美元/百万token。结论是:AI网络安全能力不随模型规模线性增长,而是呈“锯齿形”分布。
专家开炮
Meta首席AI科学家杨立昆:“Anthropic的Mythos营销是自我陶醉的胡说八道”
纽约大学教授加里·马库斯:“Mythos的炒作大部分是神话迷思……没有证据证明Mythos本身是质变飞跃。简单讲,大家被耍了”
“机构俘获”论
更系统的批评是:科技巨头渲染“AI灭世”风险,是为了争取监管话语权,建立竞争壁垒。投资人David Sacks讽刺说:“Anthropic证明了自己擅长两件事:一是发布产品,二是吓唬人。”
七、写在最后
长话短说,我有一个观点:AI编程工具不单是人类的AI工具,更是AI本身的工具。
本文内容基于作者的开发经验和对官方文档的理解,仅供参考。技术工具、模型参数、定价等信息可能随时间变化,请以官方最新发布为准。感谢你读完。如有不同见解,欢迎评论区理性交流。
本文为原创内容,首发于微信公众号[ 林说AI ]。未经本人书面授权,禁止任何形式的摘编、复制或用于商业用途,转载须注明出处。