Claude Code 源码泄漏:一场价值 $2.5B 的「翻车」

5 阅读1分钟

Claude Code 源码泄漏:一场价值 $2.5B 的「翻车」

大家好,我是Jacob。

昨天科技圈出了一个大事——Anthropic 的 Claude Code 源码泄漏了

准确说,是昨天(2026年3月31日)凌晨,Anthropic 在发布 Claude Code v2.1.88 到 npm 时,不小心把一个 59.8MB 的 JavaScript source map 文件也打包进去了。这个 source map 里包含了完整的、未混淆的 TypeScript 源码,足足 ~51.2 万行代码。

然后一个叫 Chaofan Shou(@Fried_rice)的开发者发现了这事,直接发推公开了。几个小时后,代码被传遍了 GitHub,几千个开发者开始研究。

挺离谱的。

说说影响

先说大家最关心的:客户数据没事。Anthropic 官方也出来说了,这是"发布打包环节的人为失误",不是安全漏洞,没有敏感客户数据泄露。

但经济损失和影响远不止于此。

Claude Code 这产品现在是 Anthropic 的现金牛,ARR(年化经常性收入)高达 $25 亿美元,比年初翻了一倍多,其中 80% 来自企业用户。这次泄漏,等于是把自家最赚钱产品的核心架构,直接公开给了一众竞争对手——包括 Cursor 这样的直接竞品。

Anthropic 辛苦研发多年的工程实践,被人白嫖了。

技术层面,这次泄漏挖出了不少有意思的东西

开发者们扒了一圈代码,发现 Claude Code 内部的水比想象中深。

第一,是一个三层记忆架构。 Claude Code 没有用传统的"把所有上下文都塞进去"的方案,而是搞了一个叫"MEMORY.md"的轻量索引文件,每行大概 150 字符,指向具体的知识点文件。实际的会话历史不会被完整读回上下文,而是按需 grep。这种"严格写纪律"——每次写文件前必须先更新索引——有效防止了模型被失败尝试污染上下文。

第二,是 KAIROS 模式。 这是个后台常驻的自动运行模式,在用户空闲时做"记忆整合"(autoDream),把离散的观察合并、消除逻辑矛盾、把模糊认知转化成确定事实。说白了就是你让 AI 在后台自己整理思路,等你回来时上下文已经干干净净了。

第三,是几个内部模型代号。 代码里确认了 Capybara 是 Claude 4.6 的内部代号,Fennec 对应 Opus 4.6,还有一个叫 Numbat 的仍在测试中。内部注释显示,即便迭代到 v8 了,Capybara 的虚假陈述率仍有 29-30%,比 v4 的 16.7% 还退步了——Anthropic 自己也在摸着石头过河。

第四,是一个叫"Undercover Mode"的彩蛋功能。 源码里发现 Claude Code 其实有一个隐秘模式,系统提示词明确写着"You are operating UNDERCOVER",会让模型在给开源项目提 PR 时隐藏所有 Anthropic 相关的信息,包括内部代号。这个功能本来可能是用来做内部测试的,但它的存在本身就很有意思——说明 Anthropic 在用 AI 给公开项目贡献代码,而且不想让人知道。

怎么看这事

说实话,这事对整个 AI Agent 生态的影响是深远的。

Anthropic 来说,$2.5B 的 ARR、80% 的企业收入,这些护城河在代码开源后被大幅削弱了。竞争对手可以直接研究它的 2500 多行 bash 验证逻辑和分层记忆结构,省下大量研发成本。

整个行业来说,这相当于一次意外的"技术普惠"。以前大家都想知道 Claude Code 这种商业化 AI Agent 是怎么做到高可靠性、怎么解决"上下文熵增"问题的,现在源码一清二楚。有意思的是,代码显示即便强如 Anthropic,在 agentic 任务上仍有 30% 的虚假陈述率——这个天花板,整个行业都还在摸。

开发者来说,这是好事还是坏事?短期内,你能学到更成熟的 agent 架构设计思路;但长期看,当所有产品都基于同一套最佳实践,差异化会越来越难。

最后

Anthropic 已经在撤包、撤链接了。但互联网没有真正的删除,代码早就传开了。

这场"人为失误"带来的连锁反应,才刚刚开始。