代码产出翻倍,不等于工程价值翻倍

5 阅读7分钟

AI 确实在把代码产出往上拉,但代码写得更快,不等于工程价值会跟着一起翻倍。真正被放大的,往往不是团队的成熟度,而是判断、边界、验收和责任这些原来就该由人扛着的部分。

开头

这周有两条公开信息放在一起看,很值得写。

第一条是 2026 年 3 月 18 日,Business Insider 引了一份 Jellyfish 的研究,说高 AI 采用团队的人均 PR 产出,已经接近低采用团队的两倍,代码质量指标没有明显塌下来。
来源:
www.businessinsider.com/ai-coding-b…
jellyfish.co/ai-engineer…

第二条是 2026 年 3 月 19 日,Uber CTO 对外说,这对工程团队来说是一个 reset moment。他提到,Uber 现在有大约 95% 的工程师每个月都在用 AI,内部 agent 每周已经能自主产出大约 1800 个代码改动。
来源:
www.businessinsider.com/uber-cto-ai…

如果只看这两条,很容易得出一个结论:

AI 已经把软件开发这件事彻底提速了,工程价值当然也应该一起上去。

但我这两周的感受反而更明确了一点:

代码产出翻倍,不等于工程价值翻倍。

这不是在唱反调,而是我越来越觉得,很多团队接下来真正要面对的问题,已经不是“AI 能不能多写代码”,而是:

当代码写得越来越快以后,什么东西反而会变成新的瓶颈。

代码产出为什么会先翻上去

这件事一点都不奇怪。

AI 最先能拉动的,本来就是那种边界相对清楚、局部任务明确、可以被拆成一小段一小段的工作。

比如:

  • 先把一个页面骨架搭出来
  • 先补一段样板代码
  • 先把一个接口接上
  • 先把一段重复逻辑改写一下
  • 先把一个已知 bug 的修复方案铺出来

这类工作以前也不是做不了,只是要花更多手工时间,现在 AI 把它们的启动成本压低了,产出速度提升是很自然的。

所以我完全相信,接下来会有越来越多团队看到:

  • PR 数变多了
  • 初稿出来得更快了
  • 提案速度更快了
  • 局部功能搭建明显提速了

这些变化都是真的。

问题不在这里。

问题在于,代码产出只是工程工作里最容易被量化、也最容易先被 AI 拉起来的一层。

而工程价值,从来不只等于这一层。

为什么工程价值不会跟着自动翻倍

很多团队接下来最容易犯的误判,就是把下面两件事当成同一件事:

  • 代码写得更快了
  • 团队创造的价值更高了

这两件事并不是一回事。

因为一段代码真正变成工程价值,中间还要经过很多环节。

比如:

  • 这件事值不值得现在做
  • 这轮到底该改到哪里为止
  • 这段代码是不是接到了正确的位置
  • 它有没有把别的流程一起带歪
  • 代码通过了,不等于结果就真的对了
  • 功能上线了,不等于业务价值就兑现了

AI 可以把“写出来”这一步大幅提速。

但它不会自动替你解决:

  • 这件事该不该做
  • 这轮该做到哪
  • 哪些地方不能顺手碰
  • 最后出了问题谁来负责

这也是为什么我现在越来越觉得,AI 真正先压缩的,是执行层的时间;它最先暴露出来的,却是团队在判断层的短板。

AI 提高的是执行上限,放大的是判断压力

以前很多团队的限制,来自“手慢”。

现在越来越多团队的限制,会变成“脑子慢”。

这话不是在骂人,而是在说一个很现实的变化:

当工具开始帮你把大量执行工作推快以后,真正来不及跟上的,往往会变成下面这些东西:

  • 问题有没有被定义清楚
  • 这一轮的边界有没有先画清楚
  • 谁来决定哪些地方能动、哪些地方不能动
  • 代码提速以后,验证、验收和回滚机制有没有同步变强
  • 团队是不是还在用过去那套节奏,处理现在已经变快很多的产出

这也是为什么我现在看很多“AI 让开发效率翻倍”的讨论,都会下意识多问一句:

翻倍的是哪一层?

如果翻倍的是:

  • 初稿速度
  • 代码生成
  • 单点修复
  • 局部实现

那我完全相信。

但如果接着就说:

  • 团队价值翻倍了
  • 组织效率翻倍了
  • 工程成熟度一起翻倍了

那我会立刻谨慎很多。

因为这些东西,恰恰不是代码多写一点就会自己长出来的。

资深工程师接下来到底会贵在哪

如果 AI 持续往前推,资深工程师最值钱的地方,反而会越来越不在“亲手写每一行代码”本身。

会慢慢往下面这些地方迁移:

1. 把问题定义清楚

很多时候,团队真正慢的地方,不是没人写,而是没人先把问题说清楚。

到底是修一个 bug,还是要重做一个流程?
到底是改页面,还是会碰到整条首进逻辑?
到底是局部体验不好,还是系统职责一开始就混了?

这些问题一旦说不清,AI 只会把错误方向更快地铺开。

2. 提前画清边界

现在我越来越觉得,边界感会变成工程团队非常核心的能力。

因为 AI 很会继续往下推。

它会很自然地帮你补更多代码、拆更多模块、把方案继续展开。

但什么时候该停,什么时候这一轮不要再扩,什么时候这段逻辑不能顺手碰,最后还是得由人来决定。

3. 把业务目标和技术动作接起来

很多代码写完以后没有产生价值,不是因为实现差,而是因为它根本没接到真正的业务目标上。

这轮到底要解决什么问题?
这次上线最关键的结果是什么?
这段实现到底是在帮用户,还是只是在让团队自己感觉做了很多事?

这层连接能力,AI 现在还替代不了。

4. 验收和负责

我现在越来越不相信一种说法:

好像 AI 写得够快、够多、够漂亮,结果自然就会对。

真实项目不是这样的。

真实项目里真正难的,是:

  • 最后谁拍板
  • 出问题以后谁收
  • 这轮到底谁为结果负责

这也是为什么我一直觉得,AI 会把“写代码”这件事压低,但会把“对结果负责”这件事抬高。

团队接下来最不该只盯什么

如果你是团队负责人,或者你在团队里已经开始带项目,我觉得接下来最危险的,不是不用 AI。

最危险的是只盯下面这些表面信号:

  • PR 数多了
  • 提交更快了
  • 代码看起来写得更多了
  • 大家都会用工具了

这些当然重要,但它们都还只是前半段。

后半段真正该盯的,应该是:

  • 返工有没有变少
  • 误判有没有变少
  • 因为边界没画清而引起的扩范围有没有变少
  • 验收是不是更稳了
  • 上线以后真实结果是不是更可控了

因为对工程团队来说,真正值钱的从来不是“写了多少”,而是“最后留下了什么”。

最后

AI 确实正在把代码产出往上推。

这件事不需要嘴硬,也没必要假装看不见。

但我现在越来越确定的一点是:

代码产出翻倍,不等于工程价值翻倍。

如果一个团队只是把“写代码”这件事变快了,却没有把下面这些东西一起补上:

  • 问题定义
  • 边界判断
  • 业务连接
  • 验收机制
  • 结果责任

那很多时候,它得到的不会是成比例的价值增长,

而是:

  • 更快的扩范围
  • 更多的半成品
  • 更高密度的局部产出
  • 以及更晚才暴露出来的系统问题

所以我现在会更愿意把 AI 看成一件事:

它先把执行层的门槛打低了,

然后逼着团队重新回答一个更难的问题:

当写代码已经没有以前那么稀缺以后,工程团队真正的价值,接下来到底放在哪。