AI 时代,你变成了流水线上的工人
一、一个让我后背发凉的发现
去年有一天,我正在审 Code Review。
一个刚入职半年的同事提了个 PR,代码写得相当漂亮——逻辑清晰、命名规范、边界处理也到位。我当时内心一动:这小子成长得真快。
然后我多问了一句:"这段状态机的设计,你是怎么想到的?"
沉默了大概五秒钟,他说:
"AI 帮我生成的,我觉得还不错就提上来了。"
我当时没说话。但那天晚上,我躺在床上反复想这件事,越想越觉得哪里不对。
不是因为他用了 AI——我自己也在用,每天都在用。不对劲的地方在于:他不知道那段状态机为什么好,也不知道它在什么场景下会出问题。 他只是——搬运了一个答案。
这件事让我开始认真思考一个问题:
AI 到底在帮我们,还是在悄悄地把我们变成流水线上的工人?
二、流水线的本质:把脑力劳动变成体力劳动
工业革命最大的一个成就,是把"工匠"变成了"工人"。
工匠做一把椅子,要理解木料的纹理、榫卯的力学、使用者的习惯——他脑子里有一张完整的图纸。而工厂流水线上的工人,只需要重复同一个动作:拧螺丝、打磨、喷漆。不需要理解整体,只需要完成局部。
效率提升了,但认知参与度降低了。
现在,同样的事情正在发生在软件行业里。
只不过这次,流水线搬进了编辑器。
过去的工作流(工匠模式):
需求分析 → 架构设计 → 模块拆分 → 编码 → 调试 → 优化 → 上线
每一步都需要脑力深度参与。
现在的工作流(流水线模式):
需求 → 粘贴给 AI → 修改 AI 输出 → 再粘贴给 AI → 合并 → 提 PR
程序员变成了"AI 输出的质检员"。
听起来,后者效率更高。
但我要说的是:效率高,不代表你在进步。有时候,效率高恰恰意味着你在原地踏步,甚至在退化。
三、能力拉平:最残忍的不是竞争,是没有竞争
我做了将近十年的数据工程,从最早的 MapReduce 写到现在的 Flink + Iceberg,踩过的坑能出一本书。我曾经引以为豪的,不是我写的代码,而是我对这个系统的直觉——看到一个 Schema 就知道它会在哪里炸,看一眼监控指标就能猜到瓶颈在哪。
这种直觉,是用时间和错误喂出来的。
但现在,一个用了半年 AI 的应届生,可以生成出跟我一样复杂的 SQL、一样精致的 Flink Job 骨架。
表面上,能力被拉平了。
graph LR
A[10年老工程师] -->|AI辅助| C[输出质量]
B[半年新人] -->|AI辅助| C
C --> D{差距缩小到肉眼难辨}
这乍听起来是好事——技术民主化,人人都能写代码,门槛降低了。
但仔细想想,这背后隐藏着一个极其残忍的逻辑:
当能力被拉平,竞争的维度就变了。
以前,工程师之间比的是"谁更懂"。技术深度是护城河,老工程师的经验值钱。
现在,当 AI 把"懂"这件事变成了一种可以外包的服务,大家比的就变成了:
- 谁的需求描述更清晰(Prompt 能力)
- 谁能更快地筛选 AI 输出的正确性(质检能力)
- 谁能把更多的任务并行塞给 AI(管理能力)
然后,公司管理层看到了这个逻辑,顺理成章地问出那个让所有程序员听了都心跳加速的问题:
"那我还需要那么多高级工程师吗?"
四、为什么越来越累?——悖论的真相
这是最奇怪的地方。
理论上,AI 帮你写代码、帮你查文档、帮你生成测试用例,你应该更轻松才对。
但实际上,大多数用了 AI 的工程师,都在说他们更累了。
我梳理了一下,背后至少有这几层原因:
4.1 帕金森定律的变体:工具越快,任务越多
帕金森定律的原话是:工作会自动膨胀,填满所有可用的时间。
AI 版本的帕金森定律是:工具越高效,分配给你的任务就越多。
以前一个 Sprint 可能有 5 个 Story Point,现在 PM 算了一下,AI 能帮你提速 3 倍,所以你的 Sprint 变成了 15 个 Story Point。
你没有变得更轻松——你只是用同样的时间干了三倍的活。
工作量 = 产能 × 需求方的期望值
AI 提升了产能,需求方的期望值也同步上调。
等式右边永远是满的。
4.2 认知切换成本暴增
用 AI 写代码,一个很少被讨论的隐性成本是:上下文切换。
以前你写代码是心流状态:需求 → 设计 → 实现,大脑进入深度工作模式,几小时过去了,一个功能出来了。
现在呢?
- 给 AI 写 Prompt(切换成"产品经理"模式)
- 看 AI 输出,判断对不对(切换成"代码审查"模式)
- 发现有问题,修改 Prompt 再生成(切换回来)
- 把生成的代码拼接起来(切换成"集成"模式)
- 整体跑一遍,发现逻辑漏洞(切换成"测试"模式)
- 再去问 AI 怎么修(重新切换)
你从一个深度工作者,变成了一个任务调度器。
大脑最耗能的不是"想清楚一件事",而是"不断地在不同事情之间切换"。这就是为什么一天开完会、搞了一堆 AI 交互之后,你感觉什么实质性的事都没干,却累得要命。
4.3 责任的不对称性
AI 生成的代码,Bug 是你的。
这句话听起来理所当然,但仔细想想,它构成了一种极度不对称的责任结构:
- AI 负责生成,不负责正确性
- 你负责使用,同时负责所有后果
你用了一个工具,但工具的风险全部落在你身上。这本质上是一种隐性的责任转移。
更要命的是,当你对 AI 生成的代码理解不够深入时(这很常见),你在 Code Review 里通过了它,上线出了问题,你甚至无法清晰地解释"为什么会这样"。
传统出问题:
我写的 → 我理解 → 我能解释 → 我修
AI 时代出问题:
AI 写的 → 我没完全理解 → 我解释不清楚 → 我还得修
认知外包,但责任不能外包。这是一种非常消耗人的不对称。
4.4 "假工作"激增
还有一种累,是"假工作"带来的。
AI 让"产出"变得更容易,这在有些地方是好事,但在一些组织里,它催生了大量看起来有价值、实际上没什么用的工作产出。
- 文档写了一堆,但没人看
- 测试用例生成了一大批,但覆盖的都是 Happy Path
- 代码提交频率上去了,但架构决策没人做
- 会议上的 PPT 越来越精美,但问题还是那几个
你在忙,但忙的是没有灵魂的忙。
五、我真正担心的事:退化
比"累"更让我担心的,是退化。
我见过一些使用 AI 一两年的工程师,有一个明显的特征:他们开始失去自己写代码的欲望和信心。
不是写不了——是不想写了,因为"AI 能写,为什么要自己写"。
表面上,这是效率的选择。深层里,这是认知肌肉的萎缩。
这是一个自我强化的循环。
最可怕的是它发生得非常缓慢,以至于你感觉不到。就像温水煮青蛙一样。
有一天你突然发现:你已经不太能独立设计一个复杂系统了。你需要 AI 给你一个初版,然后你在上面改。你从作者变成了编辑。
编辑是重要的工作,但编辑不能独立写一本书。
六、等等,这不是 AI 的问题
我不是在否定 AI。
我自己每天都在用 AI,它帮我省了大量时间,也帮我写出了一些单靠自己不会那么快实现的东西。
真正的问题,不是 AI 本身,而是我们如何使用 AI,以及组织如何定义 AI 时代工程师的价值。
当一个组织把工程师的价值定义为"代码输出量",AI 让代码输出量变得廉价,工程师自然就被当成可替换的流水线工人。
但如果一个组织把工程师的价值定义为"问题判断力 + 系统感知 + 技术决策能力",AI 只是工具,工程师才是真正的核心。
graph LR
subgraph 危险路径
A1[工程师] -->|产出代码| B1[衡量代码量]
B1 --> C1[AI取代价值]
end
subgraph 正确路径
A2[工程师] -->|产出判断力| B2[衡量决策质量]
B2 --> C2[AI放大价值]
end
区别在哪?
区别在于:你有没有在用 AI 的同时,持续锻炼自己不靠 AI 时的判断力。
七、我的应对策略:在流水线上保留"工匠感"
说了这么多问题,我不想只是一篇抱怨文。来说点实际的。
7.1 把 AI 当副驾,别当司机
最核心的原则:你要知道自己要去哪,AI 帮你导航,但不是 AI 决定目的地。
具体实践:在让 AI 生成代码之前,先用自然语言(或者纸上)把设计思路写清楚。哪怕只有三句话。这个动作强迫你自己先思考一遍,而不是直接把思考外包出去。
❌ 错误用法:把需求直接扔给 AI,等它出结果
✅ 正确用法:
1. 我自己先想:这个问题的核心是什么?
2. 我先写出伪代码或设计思路
3. 让 AI 填充实现细节
4. 我审查 AI 的输出,用自己的判断过滤
7.2 定期做"无 AI 日"
这不是在浪漫化,这是有意识地锻炼认知肌肉。
每周或每两周,选一个任务,完全不用 AI,从头到尾自己写。
不是因为这样效率更高,而是因为——你需要知道自己现在的真实水平在哪,而不是带着 AI 辅助的膨胀感对自己产生误判。
7.3 Review AI 代码要像 Review 别人代码一样严格
很多人对 AI 生成的代码审查标准,明显低于对同事代码的审查标准。
这是一个危险的习惯。
你需要问自己:
- 这段代码我能解释每一行的逻辑吗?
- 这里的边界条件我有没有想到?
- 如果生产环境出了问题,我能定位到这里吗?
如果答案是"不确定",你就还没有真正理解这段代码——你只是搬运了它。
7.4 用 AI 做"思维的放大镜",而不是"思维的替代品"
最好的 AI 使用方式,是用它来验证和扩展你的思路,而不是替代你的思路。
举个例子:
你在设计一个分布式任务调度系统。
❌ 错误用法:
"帮我设计一个分布式任务调度系统"
→ AI 给你一套,你把它搬上去
✅ 正确用法:
"我打算用 Master-Worker 模式,
心跳 + 租约来做故障检测,
任务队列用 Redis Sorted Set 实现优先级。
你觉得这个设计有什么潜在问题?"
→ AI 帮你找盲点,但方案的判断还是你的
7.5 向上走:从代码层到决策层
最后,也是最重要的一条:
如果 AI 能做你现在做的事,那你需要做 AI 做不了的事。
AI 很难做什么?
- 理解模糊的业务问题,并把它翻译成清晰的技术定义
- 在多个技术方案之间做权衡,并为团队承担责任
- 识别"这个需求本身就是错的"
- 理解历史遗留系统的隐性约束
- 建立跨团队的信任和协作
这些都是判断力、经验和人的问题。这些,AI 暂时还替代不了。
八、写在最后:警惕"生产力陷阱"
有一个词叫"Busy Work"——忙碌但没有价值的工作。
AI 时代最大的风险之一,是让整个行业进入了一种规模化的 Busy Work:
- 代码写了很多,但系统越来越复杂,越来越难维护
- 文档生成了很多,但没有人真正理解系统
- 工程师越来越忙,但能做架构决策的人越来越少
我把这叫做生产力陷阱:
你以为生产力提高了,其实只是噪音增加了。
graph TD
A[AI降低代码生产门槛] --> B[代码产出量暴增]
B --> C[技术债务加速积累]
C --> D[维护成本上升]
D --> E[需要更多人来救火]
E --> F[更多人用AI生成更多代码]
F --> C
B --> G[表面生产力提升]
G --> H[管理层乐观预期]
H --> I[人力缩减]
I --> J[单人承担更多]
J --> K[更依赖AI救急]
K --> F
跑赢这个陷阱的方式,不是跑得更快,而是跑向正确的方向。
作为工程师,你真正需要保护的,是你对系统的深度理解,是你判断"该怎么做"和"为什么这么做"的能力。
这些,才是 AI 时代真正稀缺的东西。
不是代码——代码已经是大宗商品了。
是判断力。是经验。是那种看到一个系统设计,脑子里会出现一张完整图的直觉。
结语
流水线上的工人,不是没有价值。
但工匠,有另一种活法。
AI 时代,选择做工匠,比选择做更高效的工人,要难得多。但也值得得多。
因为当所有人都在用 AI 提速的时候,能慢下来想清楚一件事的人,才是真正稀缺的。