AI Coding 新范式:我为什么认为 Claude Code 会改变程序员的工作方式
AI Coding 系列第 01 篇 · 系列开篇 写给每一个既兴奋又迷茫的工程师
你是不是也有这种感觉
装了 Claude Code,装了 Superpower,收藏了十几篇教程,CLAUDE.md 写了两百行,各种 skill 模板复制了一堆。
然后发现:还是在和 AI 聊天。效率没高多少,有时候不如直接问。
更崩溃的是——
刚搞懂 MCP,Anthropic 官方说不推荐用了;刚理解了 sub-agents,又出来 agent teams;Cursor 今天更新,Windsurf 明天发版。文章和视频铺天盖地,每一篇都说"这才是正确用法",每一篇的"正确用法"都不一样。
有一种力不从心的感觉。明明花了很多时间学,始终没有掌控感。
还有一种更深的焦虑:这些工具迭代这么快,我现在学的东西,三个月后会不会就过时了?我还没学会,是不是已经被落下了?
如果你有这种感觉,这篇文章是写给你的。
我也经历过这个阶段。这个系列,是我想和你一起从迷茫走向掌控的记录。先说结论:学不完不是因为你学得慢,而是因为姿势不对。
Claude Code 的本质是什么
在讲怎么用之前,先把它是什么说清楚——这一步大多数教程都跳过了,但它决定了你后面所有的判断。
Claude Code 常被介绍为"命令行里的 AI 助手"。这个说法没错,但低估了它。
它真正的身份是:一个可编程、可扩展、可组合的 AI Agent 框架。
拆开来理解这三个词:
可编程,意味着你可以通过配置文件(CLAUDE.md)、系统提示、自定义指令来定义 Claude Code 的行为规则。它不是一个固定行为的黑盒,而是一个你可以编程的 AI 大脑。你一次写清楚规则,它之后就按规则行事,不需要每次重新解释。
可扩展,意味着它可以通过工具接入任何外部系统。文件系统、GitHub、数据库、Slack、浏览器……不够用的能力按需接入,核心智能不变,外接的工具可以无限扩展。
可组合,是最核心的一层:多个 Claude Code 实例可以像积木一样协作。一个主 Agent(Orchestrator)理解任务、拆解目标,把子任务分发给多个子 Agent 并行执行,各自完成后汇总结果。这是它从"工具"变成"团队"的关键。
举个具体例子:你说"帮我把这个旧 REST API 迁移成 GraphQL",Claude Code 不是一问一答,而是:
- 主 Agent 读取并分析整个代码库
- 子 Agent A 查阅 GraphQL 相关文档和最佳实践
- 子 Agent B 基于现有接口生成 GraphQL schema
- 子 Agent C 实现 resolver 函数
- 子 Agent D 跑测试验证正确性
- 主 Agent 汇总,输出完整的 PR 草稿
整个过程自主推进,可以并行,受你的规则约束。你不需要手把手每一步,只需要在关键节点确认方向。
这就是为什么说它是框架,而不是"更智能的代码补全"。
理解这一点很重要,因为它决定了你该怎么学它:不是学一堆命令和配置,而是学会怎么设计人和 AI 的协作方式。这个思维模式的转变,是用好 Claude Code 的真正门槛。
为什么感觉学不完?问题出在哪
说一个真实的现象:同样是用 Claude Code,有人把它用成了顺手的工具,有人用起来比直接问还麻烦。
差距不在于谁学了更多功能,而在于有没有搞清楚每个工具在解决什么问题。
以 MCP 为例。MCP(Model Context Protocol)是 Claude Code 接入外部工具的协议,出来的时候很多人兴奋地接了一堆——GitHub MCP、数据库 MCP、Notion MCP、Figma MCP……
然后 Anthropic 最近的官方建议变了:能用对应软件的 CLI 或 API 就直接用,不一定要走 MCP server。
很多人看到这个就懵了:我刚学完 MCP,现在不推荐了?白学了?
其实不是。MCP 协议本身没有消失,它在需要深度标准化集成的场景依然有价值。Anthropic 改变的原因很具体:泛用 MCP server 的可靠性参差不齐,工具调用链越长,AI 出错的概率越高,调试也越难。
你需要读 GitHub issue?直接给 Claude 调用 gh CLI 的权限,比接一个 GitHub MCP server 更稳定、更简单、出了问题更容易排查。
MCP 适合的场景是:你需要构建一个标准化的、可复用的工具接口,让多个 AI 应用共享同一套访问外部系统的方式。这种场景在企业级落地时很重要,但对个人日常使用来说,直接用 CLI 就够了。
这是一个普遍现象:工具本身没有问题,问题在于在不该用它的地方用了它。
CLAUDE.md 塞了两百行但 Claude 根本不会认真读完;Superpower 的四阶段讨论流程对改个变量名的需求来说是纯粹的摩擦;sub-agents 编排用在单文件修改上反而慢了三倍——这些都是同一类问题。
不是工具不好,是没找到它真正解决的痛点。
还有一个更根本的问题:大多数人学 Claude Code 的路径是先学工具,再找场景。这条路注定越走越乱,因为工具是无穷无尽的,而你的实际场景是有限的。
正确的路径是反过来的:先遇到痛点,再找对应的工具。
这个系列文章想做的,就是帮你建立这种判断力:每个工具的本质是什么,在解决什么问题,什么时候用,什么时候坚决不用。
核心概念地图:先建立全局认知
在后续文章逐一深入之前,先给你一个整体框架,知道这些概念之间的关系,后面学每一个都不会迷失方向。
Prompt Engineering(指令工程)
最基础也最被低估的能力。Claude Code 的输出质量,80% 取决于你给它的指令质量。同样的任务,写得好的 Prompt 一次出结果,写得差的来回改八次。这不是玄学,有具体的方法论。系列第 02 篇专门讲这个。
Commands(内置命令)
/init、/clear、/compact、/review、/cost……这些是 Claude Code 内置的高频操作命令。很多人装了 Claude Code 但完全不知道这些,每天手动做着本来一个命令就能完成的事。系列第 03 篇全部说清楚。
CLAUDE.md
不是项目文档,是纠偏器。只写 Claude 在你项目里反复犯的错:项目约定、禁止行为、关键路径。它分用户级(个人偏好,对所有项目生效)和项目级(仓库约定,随代码一起提交)。判断标准只有一个:这条规则换个项目还成立吗?成立就放用户级,不成立就放项目级。系列第 04 篇完整展开。
Skill(技能模板)
可复用的任务模式。当某类任务反复出现,你把"怎么做这类任务"提炼成 skill,之后 Claude 遇到类似任务就按这个模式来。公开的 skill 模板大半是噪音,正确用法是把它当原材料,提取解决你实际痛点的部分,浓缩成 5-10 行真正有效的规则。系列第 05 篇详解。
Sub-agents / Multi-agent / Agent Teams
这几个词在不同语境里定义混乱,很多人被这些概念搞得很头大。实际上本质只有一个区分维度:任务能不能并行。能并行就拆开跑,不能就顺序跑,叫什么名字不重要。引入多 agent 编排的前提是你真的有可以同时跑的独立子任务——没有这个前提,多 agent 只是增加复杂度。系列第 06、07 篇分别展开。
MCP(Model Context Protocol)
接入外部系统的标准协议。不是所有外部工具都需要通过 MCP 接入——优先考虑直接调用对应软件的 CLI 或 API。MCP 真正的价值在于标准化和复用,适合企业级的工具集成场景。系列第 08 篇讲清楚什么时候用、怎么用。
工作流与 Hooks
Claude Code 有 hooks 机制,可以在特定事件触发自定义操作——比如每次 Claude 修改文件后自动跑 lint,或者在 Claude 提交代码前自动跑测试。这是进阶但非常实用的能力,能把 Claude Code 真正融入你的开发工作流。系列第 09 篇会结合实战案例讲。
这个系列怎么学
系列分四个阶段,共 13 篇:
认知基础(01-03 篇)
先把基础打牢。01 篇是你现在读的这篇,建立全局认知。02 篇讲 Prompt 工程——怎么写好指令,这是效率的根基。03 篇讲 Commands——内置命令的正确用法,很多人在这里浪费了大量时间。
核心工具(04-05 篇)
04 篇是 CLAUDE.md 完整指南,用户级、项目级、公司级怎么分层管理,写什么、不写什么。05 篇是 Skill 提炼,怎么从一堆公开模板里提取真正对你有用的部分,怎么自己沉淀 skill。
进阶编排(06-08 篇)
06 篇讲 Sub-agents——什么时候拆任务,怎么设计子任务边界。07 篇讲 Multi-agent 和 Agent Teams——真正的多 agent 编排是什么样的,和 sub-agents 的区别。08 篇讲 MCP 实战——什么时候用,怎么选,怎么保持稳定可靠。
企业落地(09-13 篇)
09 篇是 AI Coder 的日常工作流——Claude Code 怎么真正融入你的日常开发节奏,而不只是偶尔用一下。10 篇讲输出质量与验证——AI 生成的代码怎么审查,在什么情况下会出错,怎么建立信任机制。11 篇讲成本控制与效果衡量——Token 怎么省,效率提升怎么量化,怎么向管理层证明价值。12 篇是完整实战案例——用这套方案做一个真实项目的完整记录。13 篇是企业落地方案——从个人工具到团队工作流的完整推进路径。
每篇文章的结构:
- 核心概念和原理(知道是什么、为什么)
- 实战方法和案例(知道怎么用)
- 本篇实践任务(马上动手)
最后这一点很重要。如果只是读文章收藏,13 篇也不够;如果每篇都配合实践任务动手做一遍,认真跟下来就够改变你的工作方式。学 AI Coding 最大的误区,就是把"学会了"等同于"看懂了"。
总结:这不只是工具的问题
最后说一件更重要的事,这也是我认为这个系列值得认真对待的根本原因。
AI Coding 是下一代编程范式。
这不是夸张。有两个真实的变化正在发生:
软件开发行业的岗位正在重新洗牌,影响的不是某几个新职位,而是所有人。
以前分工很清晰:后端工程师、前端工程师、测试工程师、产品经理,各司其职,边界清楚。现在这个分工正在被重新定义。
一个会用 AI 的后端工程师,可以独立完成过去需要前端配合的联调工作;一个会用 AI 的前端工程师,可以自己生成测试用例、自己做基础的架构评审;一个会用 AI 的产品经理,可以直接输出可运行的原型,而不只是 PRD 文档等待开发排期。
新的岗位描述开始出现:AI 全栈工程师、AI 产品工程师、AI 应用工程师。这些不是"会训练 AI 模型"的岗位,而是用 AI 工具大幅扩展自己能力边界的传统软件岗位的进化版本。
本质上是:一个人能做的事的边界在扩大,团队分工的颗粒度在变粗。 过去需要三个人协作完成的需求,一个会用 AI 的工程师可以独立推进。这不是某个职位的消失,而是整个软件开发行业能力模型的重新定价。
工程师的产出倍率正在分化。 一个能把 AI 用好的工程师和一个不会用的,在同等时间内能完成的工作量差距正在拉大——不是 10% 或 20%,而是数倍。已经有团队的工程师用 Claude Code 一个人承担了过去需要三个人才能完成的功能迭代量。这个差距还在扩大。
这不是在说 AI 会替代程序员。恰恰相反:会用 AI 的程序员正在替代不会用 AI 的程序员。 这句话说的不是淘汰,而是竞争优势的重新分配。会用 AI 的工程师,承担的职责范围更广、晋升速度更快、市场竞争力更强。
那关于"学不完"的焦虑呢?
说一个让你觉得放心的逻辑:
工具更新得快,不是因为之前的东西是错的,而是行业在快速找到更好的抽象方式。MCP 没有消失,适用范围被校准了;sub-agents 的概念没有消失,封装形式在演化。
底层有一件事从没变过:给 AI 清晰的上下文,AI 给你可预期的输出。
围绕这一点建立的判断力——什么时候 AI 靠谱,什么时候不靠谱,怎么设计 AI 的工作边界——无论工具怎么变都有效。这个判断力才是真正要建立的东西,不是哪个命令的用法。
工具的具体用法会过时,判断力不会。
缓解焦虑最实际的方法,是换一个学习姿势:带着实际问题去找工具,而不是追着工具找问题。
你现在项目里遇到了什么卡点?那个卡点对应的工具是什么?先把这个搞清楚,一个个来。
React 写得顺手的人,不是因为先把文档全读完了,而是因为做了很多项目,痛点逼着他们去学对应的解法。AI coding 一样。
你不需要比 AI 工具进化得更快,你只需要比上周的自己多会一件事。
我们一起来。
本篇实践任务
这是系列第一个实践任务,很简单,但很重要:
任务:用一句话定义你现在最大的 AI Coding 痛点。
不是"我还没学会 sub-agents",而是一个具体的、在你实际工作中发生的场景:
- "我让 Claude 改一个功能,它总是顺手改了我不想动的文件"
- "我给 Claude 一个复杂需求,它做了一半就方向跑偏了"
- "我不知道怎么让 Claude 遵守我们团队的代码规范"
- "Claude 给的解决方案用了我们项目里没有的库"
把这个痛点写下来。这个系列后续每一篇,你都可以用这个痛点来检验:这一篇解决了我的问题吗?
如果你愿意,把你的痛点写在评论区,我们可以一起讨论这个痛点对应的解法在哪一篇。
下篇预告
第 02 篇:给 Claude Code 写好指令——Prompt 工程实战指南
同样是让 Claude 实现一个功能,有人一次出结果,有人来回改八次。差距不在模型,在指令。下一篇会给出具体的方法论和可直接复用的 Prompt 模板,覆盖实现新功能、排查 Bug、代码 Review、重构、技术选型五大高频场景。
AI Coding 系列持续更新。如果这篇说出了你的困惑,欢迎转发给同样在摸索的工程师朋友。