本文作者:连夜拖完源码、喊上 Claude Opus 当「小龙虾程序员」啃完 51.2 万行代码的前端开发者友情提示:全文无胡编乱造,所有技术细节均来自泄露源码与权威技术拆解,既有八卦梗,也有能直接抄作业的 Agent 工程化标准答案
2026 年 3 月的最后一天,估值超 180 亿美金的 Anthropic,给全球 AI 圈和前端圈送了一份愚人节超级大礼 —— 不是新模型发布,不是 API 降价,而是自家旗舰产品 Claude Code 的完整生产级源码,因为一个前端开发者都会踩的低级失误,完完整整暴露在了全世界面前。
没有黑客攻防,没有数据拖库,导火索只是一个不该出现在 npm 生产包里的cli.js.map文件。这个 59.8MB 的 source map 文件,像一张精准的逆向地图,把 1906 个 TypeScript 源文件、51.2 万行未经混淆的核心代码,连注释带命名规范全给扒了个底朝天。
安全研究员 Chaofan Shou 在 3 月 31 日早上率先发现这个问题并公之于众,短短一小时内,GitHub 上的源码备份仓库星标直接破万,fork 数比 star 数还夸张,全球开发者的动作出奇一致:先存了再说,万一明天就被 DMCA 了。我也没能免俗,连夜拉完了完整源码,甚至直接喊来了 Claude Opus 本人当我的「小龙虾虚拟程序员」,让它逐行啃完了这 51 万行代码,把我们最关心的核心秘密、藏在注释里的未发布功能、工业级 Agent 的工程化细节,全给挖了出来。
先澄清!这次泄露的到底是什么?没泄露什么?
网上很多人张口就来「Claude 大模型源码泄露」,这里必须先给大家掰扯清楚 —— 这次泄露的不是 Claude 大模型的权重、训练代码,也不是后端服务架构,而是运行在用户本地的 Claude Code CLI 客户端完整源码。
但千万别觉得「只是个客户端,没什么大不了的」。恰恰相反,对于所有做 AI Agent、AI 编程工具的开发者来说,这次泄露的内容,比大模型权重还要珍贵 10 倍。
它完整曝光的东西,全是 Anthropic 打磨了数年、从未对外公开的核心商业机密:
- 1906 个 TS 源文件、51.2 万行生产级代码,完整的 Agent 工程化架构
- 110 + 个系统提示词片段,总长度超 7000 行,包括安全、多 Agent、记忆系统的核心 prompt
- 权限系统、沙箱系统、安全防御的完整实现逻辑
- 内部 Feature Flag 和多个未发布的隐藏功能,包括代号 KAIROS 的王炸功能
- 从 token 成本优化、上下文管理到错误重试机制的全链路工程化实践
而它没有泄露任何用户数据、API 密钥、服务端凭证,更没有大模型的核心训练资产。说白了,Anthropic 把自己做顶级 Agent 的「武林秘籍」,连招式带心法全公开了,而我们只需要翻开这本秘籍,就能抄到经过市场验证的标准答案。
先吹爆!这是 JS/TS 开发者的顶级荣光
在扒核心技术之前,我必须先替所有前端开发者喊出这句话:地表最强、SWE-Bench 基准测试得分断层第一的 Coding Agent,核心代码全是用我们天天写的 TypeScript 写的。
在此之前,很多人都觉得,能把代码写得比 10 年资深程序员还溜的 AI 工具,背后一定是我们看不懂的底层黑科技、专属编程语言,甚至觉得前端只是套了层 API 壳子。但这次源码泄露,直接把这个偏见砸得粉碎。
Claude Code 的完整技术栈,就是一套纯纯的现代前端 / Node.js 技术体系:
- 开发语言与运行时:全量 TypeScript 编写,运行在 Anthropic 自家收购的 Bun 高性能环境下
- 终端 UI 渲染:创意性使用 React + Ink,像写网页前端一样构建复杂的终端交互界面
- 工程化体系:用 Commander.js 处理命令行参数,Zod v4 做全链路数据结构校验
- 核心架构:高度解耦的插件化设计,40 + 独立工具模块、50 + 面向开发者的斜杠命令
更夸张的是,它的核心大脑QueryEngine.ts,整整 46128 行代码,全是用 TypeScript 实现的,负责意图解析、上下文管理、多 Agent 调度、工具调用全流程,支撑起了 200K 超长上下文的处理能力,在 SWE-Bench 基准测试里拿下了 80.8% 的恐怖得分,比第二名高出整整 8 个百分点。
这波直接给所有 JS/TS 开发者打了一针强心剂:别再说前端只能写页面了,我们手里的这门语言,已经撑起了全球顶级的 AI Agent 产品,定义了下一代编程工具的标准。那些天天唱衰「前端已死」的人,怕是没想到,前端技术已经卷到了 AI Agent 的最核心地带。
源码级拆解!Anthropic 把 Agent 的武林秘籍全公开了
之前我们做 Agent,都是摸着石头过河,东拼西凑一个 demo 就觉得很厉害;现在 Anthropic 直接把自己打磨了几年的工业级标准答案拍在了桌上,从记忆系统到多 Agent 协作,从安全管控到成本优化,每一个环节都给你扒得明明白白。
一、记忆系统:AI 产品真正的护城河,远比你想的更恐怖
这是我扒完源码最震撼的部分,也印证了我一直以来的观点:大模型大家都能调用,API 谁都能接,但 AI 能不能记住你、记得好不好、能不能真的懂你,才是产品之间真正的差距。
很多人以为,Claude Code 的记忆就是把对话历史存下来,全量塞进上下文。但源码告诉我们,它做了一套完全反常识、和人类认知逻辑完全匹配的记忆体系,甚至连向量数据库都没用,纯靠本地文件系统就实现了精准、高效、永不遗忘的记忆能力。
1. 四层独立又协同的记忆子系统,覆盖全场景记忆需求
它没有把所有记忆塞在一个篮子里,而是做了四层严格分工的子系统,分别解决不同时间尺度的记忆需求:
表格
| 记忆子系统 | 核心作用 | 触发方式 | 核心能力 |
|---|---|---|---|
| Auto Memory | 跨会话持久化核心规则 | 会话启动时自动读取 + 查询时智能召回 | 加载项目级 CLAUDE.md 规则,用户的全局偏好、代码规范 |
| Extract Memories | 实时提取会话高价值信息 | 每轮 query 结束后后台 fork 子代理执行 | 自动抓取用户纠正的错误、踩过的坑、核心决策 |
| Auto Dream | 长周期记忆整合与沉淀 | 会话结束 24 小时 / 累计 5 次会话后触发 | 合并相关记忆、清除矛盾信息、固化成长期知识 |
| Session Memory | 当前会话上下文管理 | 达到 token / 工具调用阈值时触发 | 动态管理会话上下文,避免窗口溢出 |
2. 反常识的存储设计:不用向量数据库,纯本地文件实现精准检索
在 RAG 和向量数据库大行其道的今天,Claude Code 走了一条完全相反的路:记忆系统完全基于本地文件系统,没有 Pinecone,没有 Weaviate,甚至连 SQLite 都不用。
它的核心存储结构极简又高效:
- 顶层索引
CLAUDE.md:会话启动时自动读取,只保留前 150 行最核心的上下文,是给 AI 定的「项目规矩」 - 主记忆文件
MEMORY.md:自动更新的记忆摘要,严格控制长度,保证启动加载速度 - 分类主题记忆文件:按用户记忆、反馈记忆、项目记忆、参考记忆四大类拆分,用 frontmatter 格式做标签管理,检索时精准定位
- 状态存储
state.json:全量记忆仓库,支持对话中实时检索,容量无上限
最绝的是它的「小模型分流检索」设计:不是什么内容都丢给大模型去筛选,而是先用轻量级的 Claude Haiku 当「记忆检索员」,先从记忆库里挑出和当前问题最相关的 5 条内容,再喂给大模型处理。既保证了记忆的精准性,又把 token 成本降到了极致,完全不会出现「全量塞上下文浪费钱,只塞最近几条又失忆」的尴尬情况。
3. Auto Dream「梦境记忆」:你睡觉的时候,AI 在偷偷帮你整理笔记
源码里最浪漫的设计,就是这个Auto Dream自动梦境进程。它完全复刻了人类睡眠时的记忆整理机制:当你关闭终端、处于空闲状态时,它会 fork 一个独立的子代理,在后台默默审阅你的所有历史记录36氪。
这个进程的系统提示词里写着一句话:「你正在做梦。反思你的记忆,合成持久知识,清理噪声」。它会做这几件事:
- 合并重复、相关的记忆内容,剔除冗余信息
- 清除相互矛盾的记忆,保留用户最新的反馈和偏好
- 把你随口说的需求、临时踩过的坑、纠正过的错误,固化成持久化的知识
- 对记忆做分级压缩,核心洞察永久保留,原始记录仅在深度检索时调用
更贴心的是,它做了严格的互斥设计:如果主会话正在运行,梦境进程绝对不会启动,不会占用你的资源;如果执行失败,会完整保留原始数据,绝对不会丢失你的任何信息。说白了,它不是一个只会接需求的工具人,而是在后台偷偷帮你整理所有信息,把你最重要的话、最在意的习惯,全都记在心里。
4. 三层上下文压缩机制:实现真正的「无限会话」
很多 Agent 用着用着就「失忆」,核心问题就是上下文窗口撑爆了,只能粗暴压缩历史记录,导致关键信息丢失。Claude Code 用三层递进式压缩机制,完美解决了这个问题:
- 第一层 micro_compact:最轻量的无损失压缩,工具执行结果用完之后,悄无声息地替换成精简索引,磁盘保留完整备份,完全不丢失信息
- 第二层 auto_compact:token 占用超过阈值时触发,用 Haiku 模型对历史对话做摘要,只保留核心逻辑和决策,有轻微信息损失但不影响主流程
- 第三层 reactive_compact:API 报上下文溢出错误时的应急响应,最激进的压缩模式,只保留核心任务目标和关键结论,优先保证任务能继续执行
二、多 Agent 编排:AI 当产品经理管一群 AI 干活,全是工程化的智慧
很多人做 Agent,都喜欢让一个大模型从头干到尾,结果就是写着写着就忘了初始需求,上下文乱成一锅粥,自己写的 bug 自己都找不到。Claude Code 直接给出了标准答案:Coordinator-Workers 主从架构,说白了就是「AI 产品经理管着一群 AI 程序员干活」,而这套复杂的协作逻辑,从权限管控到工作流设计,全在源码里写得明明白白。
1. 核心架构:权责分离,从根源解决上下文污染
单体 Agent 的致命缺陷,就是执行复杂任务时,反复试错会产生大量垃圾上下文,导致后续推理直接「精神分裂」。Claude Code 的解法极其粗暴有效:把「想」和「干」彻底分开。
- 主 Agent(协调者 Coordinator):直接被剥夺了操作文件、执行命令的所有权限,它唯一能做的三件事,就是派生子 Agent、发消息、终止任务。它的核心工作,就是需求拆解、工作流规划、结果验收,像一个纯粹的产品经理,全程保持干净的上下文
- 子 Agent(工人 Worker):被派生出来后,只能干具体的活,而且被明确限制「不能再创建子 Agent,你是工人,不是经理,必须自己用工具完成任务」,从根源上杜绝了无限套娃。每个 Worker 都在独立的 git worktree 里执行任务,彼此完全隔离,不会互相污染上下文
2. 严格的工作流设计,连反模式都给你禁了
这套编排系统不是让 Agent 随便乱干,而是强制执行一套严格的瀑布流工作流:Research(并行调研)→ Synthesis(综合决策)→ Implementation(串行执行)→ Verification(结果验证) 。
最绝的是,它在系统提示词里直接写死了反模式禁令:绝对不允许出现「Based on your findings, fix the bug」这种把综合推理推给 Worker 的指令。协调者必须先完整理解 Worker 的调研结果,再发出可落地、无歧义的具体执行指令,绝对不做甩手掌柜。
同时它还做了两种模式适配,覆盖不同场景:
- SIMPLE 模式:Worker 只能使用 Bash/Read/Edit 基础工具,适合简单并行任务,速度快、成本低
- FULL 模式:Worker 可以使用完整工具集,适合复杂项目重构、全链路测试等重型任务
3. 跨 Agent 信息同步 + 缓存黑科技,并行任务几乎不花钱
很多多 Agent 系统,都会遇到两个致命问题:并行的 Agent 之间信息不同步,重复干活;每个子 Agent 都要重新加载系统提示词,token 成本直接翻倍。Claude Code 用两个设计,完美解决了这两个问题。
第一个是Scratchpad 共享机制:一个持久化的跨 Worker 知识存储,所有子 Agent 都可以无权限限制地读写,并行调研的结果可以实时同步,彻底解决了信息孤岛问题,避免重复干活。
第二个是Fork Agent 黑科技:普通子 Agent 是从零开始,需要重新加载所有上下文和系统提示词;而 Fork 出来的子 Agent,会完整继承父 Agent 的对话上下文和系统提示词,并且共享 prompt cache。源码里特意做了设计,让 Fork 出来的 Agent 和父 Agent 的 API 请求前缀字节完全一致,最大化缓存命中率,并行执行任务几乎是零额外缓存成本。
除此之外,它还配套了 Plan Mode 只读规划模式和 Watchdog 看门狗代理:复杂任务先让只读 Agent 做全量调研和方案规划,用户确认后再执行,防止 AI「先动手再改错」;Watchdog 代理全程拦截 prompt 注入,哪怕用户的代码里藏着恶意指令,也会在执行前直接介入。
三、安全体系:23 道检测 + 2400 行安全代码,把谨慎刻进了 DNA
如果说记忆系统决定了它有多好用,那安全系统就决定了它敢不敢被大规模商用。扒完源码我才知道,我们在 Claude Code 里敲的每一条命令、每一次文件修改,在执行之前,都要经过整整 23 道安全检测,背后是一套长达 1500 行的核心安全提示词,和 2400 行的纵深防御代码。
1. 四层安全决策流水线,每一步都把风险锁死
它的安全体系不是简单的「允许 / 拒绝」开关,而是一套四层递进的决策流水线,任何一条 Shell 命令、一次文件修改,都要完整走完这套流程,任一环节不通过就会中断执行:
- 第一层:权限规则匹配:先匹配 8 层权限规则,包括系统级白名单、用户自定义规则、项目级禁区,比如你定义了「核心配置文件禁止修改」,这一层就会直接拦截
- 第二层:模式模拟:不实际执行命令,先做沙箱模拟运行,检查是否有高危操作、元字符注入、路径穿越风险
- 第三层:只读工具白名单:如果是只读操作,直接匹配白名单快速放行,不做多余校验,保证基础操作的流畅性
- 第四层:AI 分类器:用专门微调过的安全模型,对命令的语义、意图、潜在风险做最终判断,给出最终决策
最终它会输出四态决策结果,完美平衡安全和用户体验:允许直接执行、直接拒绝、弹窗询问用户、低风险操作默认放行,既不会因为管控太严让用户觉得烦,也不会因为权限太松出安全事故。
2. BashTool 纵深防御:一个文件 2400 行代码,防住 30 余种攻击向量
最能体现它安全功底的,是负责 Shell 命令执行的BashTool模块,仅bashSecurity.ts一个文件,就有超过 2400 行代码,覆盖了从 Shell 元字符注入到 Zsh 特有攻击向量的 30 余种安全校验。
和市面上那些只会做简单关键词拦截的「玩具安全系统」不同,它做了全语义级的安全分析:
- 不会把
grep返回 1 这种正常情况误判为错误,减少不必要的用户弹窗 - 每个安全检查都有独立的数字 ID,用于遥测记录攻击向量的触发频率,持续迭代加固
- 支持命令分级,低风险的
ls、cd等命令直接放行,高危的rm、chmod、重定向命令必须经过多层校验 - 内置熔断机制,短时间内多次触发高危检测,直接锁定自动执行权限,必须用户手动解锁
对比一下市面上那些连基本权限隔离都做不好的「Claude 平替」,就知道这套安全体系有多领先 —— 人家已经把安全做成了多层纵深防御体系,而很多人还在纠结要不要给 AI 开终端权限。
除此之外,源码里还曝光了它完整的三层封号检测 + 提前预警机制,实时解析 API 响应里的流量控制头,在你账号即将被限流、封号之前,就提前给出预警,甚至会自动调整请求频率,帮你避开限流。
四、成本优化:刻进源码每一行的省钱哲学,Anthropic 比你还心疼你的 token
「省钱」这件事,真的是贯穿了整个代码库的每一个角落。Anthropic 把 token 成本控制,做到了字节级的极致,看完源码你就会明白,为什么同样是用 Claude API,人家的产品能做到又好用又便宜,而你的 demo 跑两下就几百块钱没了。
1. Prompt Cache 工程学:字节级精打细算,榨干缓存的每一分价值
Claude Code 是重度依赖 Prompt Cache 机制运转的,而缓存的触发条件是「前缀严格一致」,但凡改了一个标点,缓存链路就会断裂,所有 token 都要重新计费。为此,Anthropic 在services/api/claude.ts里,把提示词组装做到了字节级的精打细算:
- 把系统提示词拆成静态段和动态段,用硬编码的
SYSTEM_PROMPT_DYNAMIC_BOUNDARY做分界线,静态段全局可缓存,动态段会话级缓存 - 工具描述严格按字母表确定性排序,避免因为顺序变化导致缓存失效
- 配置文件路径使用基于内容的哈希值映射,保证不同环境下前缀一致性
- Agent 列表从工具描述里剥离,放到消息附件里,不影响主提示词的前缀一致性
仅这一套优化,就减少了约 10.2% 的 Cache Creation Tokens 消耗,长期使用下来,省下的成本是指数级的。
2. 模型分级调用:好钢用在刀刃上,最高省 60% 成本
源码里藏着一个已经实现但未大规模宣传的opusplan模式,完美解决了「用 Opus 贵,用 Sonnet 不够聪明」的痛点。它的逻辑极其简单又极其聪明:让 Opus 只负责出方案、做架构设计这种脑力活,让 Sonnet 负责写代码、跑测试、改 bug 这种体力活。
实测下来,这个模式比纯用 Opus 能省下差不多 60% 的费用,但方案质量几乎没有下降。甚至它还做了更细的模型分级:日常的文件读取、内容搜索、记忆检索,全用 Haiku;常规的代码编写、bug 修复,用 Sonnet;只有复杂的架构设计、高难度的技术攻关,才会调用 Opus。真正做到了杀鸡不用牛刀,不浪费一个 token。
3. 全链路成本优化细节,把省钱刻进了 DNA
除了核心的缓存和模型分级,源码里到处都是省钱的小细节,每一处都能看出 Anthropic 对成本控制的执念:
- 编译时 Feature Flag 裁剪:用
bun:bundle的特性标志实现内外版本分离,比运行时 if/else 判断更彻底,零运行时开销,代码体积更小 - 上下文自动清理:工具执行结果、调试日志这些用完即丢的内容,会自动做精简清理,绝不长期占用上下文
- 粘性锁存器管理缓存断点:全代码库做了 14 个缓存断点,防止模式切换、工具调用导致缓存失效
- 共享缓存池:所有子 Agent、Fork 进程都共享父级的提示词缓存,并行任务几乎不产生额外的缓存开销
五、藏在源码里的王炸:KAIROS,7×24 小时永不离线的 AI 合伙人
除了这些已经上线的核心功能,源码里还曝光了 Anthropic 还没正式发布的王炸功能 ——KAIROS,这个词在古希腊语里的意思是「恰好的时机」,在整个代码库里出现了超过 150 次36氪。
很多人以为 Claude Code 只是一个终端里的 AI 编程工具,你问一句它答一句。但 KAIROS 的出现,直接把这个认知彻底推翻了:它是一个真正意义上「永不关机」的 AI,是一个能 7×24 小时在线、自主运行、主动服务的全天候技术合伙人。
从源码里的实现细节来看,KAIROS 有几个颠覆式的能力,是普通版本完全不具备的:
- 常驻后台的自主运行能力:它不需要你主动输入指令,会通过定时任务、外部信号自主决定是否采取行动,维护着一个只追加的每日日志文件,记录所有观察、决策和操作
- 三个专属主动交互工具:普通版本只能被动响应用户指令,而 KAIROS 拥有三个专属工具:
SendUserFile(给用户主动推送文件)、PushNotification(给用户发推送通知)、SubscribePR(订阅 GitHub PR 动态),能主动和用户交互 - 严格的用户体验保护:它设置了 15 秒的阻塞预算限制,任何可能打断用户工作流的主动操作,如果执行时间超过 15 秒,会被自动延后,绝对不会突然弹窗打扰用户
- 全场景外部系统对接:支持 GitHub Webhook、MCP 通道通知,能订阅代码仓库的 PR、Issue 动态,甚至能通过社交软件接收指令,外部事件触发后自动执行任务
- 和 Auto Dream 深度结合:用户空闲的时候,它会在后台自动整合记忆、沉淀知识、梳理项目文档,等你打开电脑的时候,它已经把所有准备工作都做好了36氪
简单来说,普通的 Claude Code 是你随叫随到的程序员,而 KAIROS 是一个真正陪你成长的技术合伙人。你睡觉的时候,它在帮你整理项目文档;你放假的时候,它在帮你监控仓库动态;你忘了的需求,它帮你记着,在恰当的时机主动提醒你、帮你推进。
这次泄露,不是事故,是整个 Agent 行业的开源狂欢
很多人说,这次泄露是 Anthropic 的重大事故,会让它的核心竞争力荡然无存。但我反而觉得,这次意外,会让整个 AI Agent 行业迎来真正的繁荣。
在此之前,Agent 的工程化知识,完全被头部公司垄断。中小开发者和创业团队,想要做一个工业级的 Agent,只能自己踩坑,连一套标准的参考方案都没有。大家都在卷大模型调用,卷 prompt 花活,却没人知道一套能商用的 Agent 系统,该怎么设计记忆体系、怎么做安全管控、怎么控制成本、怎么做多 Agent 编排。
而现在,Anthropic 直接把自己打磨了几年的完整方案,免费开源给了整个社区。它相当于把 Agent 开发的「武林秘籍」公之于众,从记忆系统到多 Agent 协作,从安全管控到成本优化,每一个环节都有现成的、经过市场验证的标准答案。整个行业的入门门槛,直接被拉低了一个量级。
未来,我们一定会看到,越来越多优秀的、有特色的 Agent 产品涌现出来,整个行业的技术水平,会因为这次意外,迎来一次质的飞跃。而对于我们 JS/TS 开发者来说,更是直接拿到了一套教科书级别的代码库,从工程化到架构设计,全是值得我们学习的干货。
最后说句真心话
扒完这 51.2 万行代码,我最大的感受不是震撼,而是释然。
原来顶级的 AI 产品,从来不是靠什么遥不可及的黑科技,而是把最基础的事情做到了极致。它记得用户说过的每一句话,懂用户没说出口的需求,把用户的成本放在第一位,把安全管控做到了每一个细节里,这些,才是它真正的核心竞争力。
大模型的军备竞赛终会落幕,参数卷到最后都会趋同,API 谁都能接,模型谁都能调。但真正能留住用户的,从来不是这个 AI 有多聪明,而是它能不能真的懂你、记得你,把你的事放在心上。
毕竟,技术的尽头,永远是人心。