AI 确实在把代码产出往上拉,但代码写得更快,不等于工程价值会跟着一起翻倍。真正被放大的,往往不是团队的成熟度,而是判断、边界、验收和责任这些原来就该由人扛着的部分。
开头
这周有两条公开信息放在一起看,很值得写。
第一条是 2026 年 3 月 18 日,Business Insider 引了一份 Jellyfish 的研究,说高 AI 采用团队的人均 PR 产出,已经接近低采用团队的两倍,代码质量指标没有明显塌下来。
来源:
www.businessinsider.com/ai-coding-b…
jellyfish.co/ai-engineer…
第二条是 2026 年 3 月 19 日,Uber CTO 对外说,这对工程团队来说是一个 reset moment。他提到,Uber 现在有大约 95% 的工程师每个月都在用 AI,内部 agent 每周已经能自主产出大约 1800 个代码改动。
来源:
www.businessinsider.com/uber-cto-ai…
如果只看这两条,很容易得出一个结论:
AI 已经把软件开发这件事彻底提速了,工程价值当然也应该一起上去。
但我这两周的感受反而更明确了一点:
代码产出翻倍,不等于工程价值翻倍。
这不是在唱反调,而是我越来越觉得,很多团队接下来真正要面对的问题,已经不是“AI 能不能多写代码”,而是:
当代码写得越来越快以后,什么东西反而会变成新的瓶颈。
代码产出为什么会先翻上去
这件事一点都不奇怪。
AI 最先能拉动的,本来就是那种边界相对清楚、局部任务明确、可以被拆成一小段一小段的工作。
比如:
- 先把一个页面骨架搭出来
- 先补一段样板代码
- 先把一个接口接上
- 先把一段重复逻辑改写一下
- 先把一个已知 bug 的修复方案铺出来
这类工作以前也不是做不了,只是要花更多手工时间,现在 AI 把它们的启动成本压低了,产出速度提升是很自然的。
所以我完全相信,接下来会有越来越多团队看到:
- PR 数变多了
- 初稿出来得更快了
- 提案速度更快了
- 局部功能搭建明显提速了
这些变化都是真的。
问题不在这里。
问题在于,代码产出只是工程工作里最容易被量化、也最容易先被 AI 拉起来的一层。
而工程价值,从来不只等于这一层。
为什么工程价值不会跟着自动翻倍
很多团队接下来最容易犯的误判,就是把下面两件事当成同一件事:
- 代码写得更快了
- 团队创造的价值更高了
这两件事并不是一回事。
因为一段代码真正变成工程价值,中间还要经过很多环节。
比如:
- 这件事值不值得现在做
- 这轮到底该改到哪里为止
- 这段代码是不是接到了正确的位置
- 它有没有把别的流程一起带歪
- 代码通过了,不等于结果就真的对了
- 功能上线了,不等于业务价值就兑现了
AI 可以把“写出来”这一步大幅提速。
但它不会自动替你解决:
- 这件事该不该做
- 这轮该做到哪
- 哪些地方不能顺手碰
- 最后出了问题谁来负责
这也是为什么我现在越来越觉得,AI 真正先压缩的,是执行层的时间;它最先暴露出来的,却是团队在判断层的短板。
AI 提高的是执行上限,放大的是判断压力
以前很多团队的限制,来自“手慢”。
现在越来越多团队的限制,会变成“脑子慢”。
这话不是在骂人,而是在说一个很现实的变化:
当工具开始帮你把大量执行工作推快以后,真正来不及跟上的,往往会变成下面这些东西:
- 问题有没有被定义清楚
- 这一轮的边界有没有先画清楚
- 谁来决定哪些地方能动、哪些地方不能动
- 代码提速以后,验证、验收和回滚机制有没有同步变强
- 团队是不是还在用过去那套节奏,处理现在已经变快很多的产出
这也是为什么我现在看很多“AI 让开发效率翻倍”的讨论,都会下意识多问一句:
翻倍的是哪一层?
如果翻倍的是:
- 初稿速度
- 代码生成
- 单点修复
- 局部实现
那我完全相信。
但如果接着就说:
- 团队价值翻倍了
- 组织效率翻倍了
- 工程成熟度一起翻倍了
那我会立刻谨慎很多。
因为这些东西,恰恰不是代码多写一点就会自己长出来的。
资深工程师接下来到底会贵在哪
如果 AI 持续往前推,资深工程师最值钱的地方,反而会越来越不在“亲手写每一行代码”本身。
会慢慢往下面这些地方迁移:
1. 把问题定义清楚
很多时候,团队真正慢的地方,不是没人写,而是没人先把问题说清楚。
到底是修一个 bug,还是要重做一个流程?
到底是改页面,还是会碰到整条首进逻辑?
到底是局部体验不好,还是系统职责一开始就混了?
这些问题一旦说不清,AI 只会把错误方向更快地铺开。
2. 提前画清边界
现在我越来越觉得,边界感会变成工程团队非常核心的能力。
因为 AI 很会继续往下推。
它会很自然地帮你补更多代码、拆更多模块、把方案继续展开。
但什么时候该停,什么时候这一轮不要再扩,什么时候这段逻辑不能顺手碰,最后还是得由人来决定。
3. 把业务目标和技术动作接起来
很多代码写完以后没有产生价值,不是因为实现差,而是因为它根本没接到真正的业务目标上。
这轮到底要解决什么问题?
这次上线最关键的结果是什么?
这段实现到底是在帮用户,还是只是在让团队自己感觉做了很多事?
这层连接能力,AI 现在还替代不了。
4. 验收和负责
我现在越来越不相信一种说法:
好像 AI 写得够快、够多、够漂亮,结果自然就会对。
真实项目不是这样的。
真实项目里真正难的,是:
- 最后谁拍板
- 出问题以后谁收
- 这轮到底谁为结果负责
这也是为什么我一直觉得,AI 会把“写代码”这件事压低,但会把“对结果负责”这件事抬高。
团队接下来最不该只盯什么
如果你是团队负责人,或者你在团队里已经开始带项目,我觉得接下来最危险的,不是不用 AI。
最危险的是只盯下面这些表面信号:
- PR 数多了
- 提交更快了
- 代码看起来写得更多了
- 大家都会用工具了
这些当然重要,但它们都还只是前半段。
后半段真正该盯的,应该是:
- 返工有没有变少
- 误判有没有变少
- 因为边界没画清而引起的扩范围有没有变少
- 验收是不是更稳了
- 上线以后真实结果是不是更可控了
因为对工程团队来说,真正值钱的从来不是“写了多少”,而是“最后留下了什么”。
最后
AI 确实正在把代码产出往上推。
这件事不需要嘴硬,也没必要假装看不见。
但我现在越来越确定的一点是:
代码产出翻倍,不等于工程价值翻倍。
如果一个团队只是把“写代码”这件事变快了,却没有把下面这些东西一起补上:
- 问题定义
- 边界判断
- 业务连接
- 验收机制
- 结果责任
那很多时候,它得到的不会是成比例的价值增长,
而是:
- 更快的扩范围
- 更多的半成品
- 更高密度的局部产出
- 以及更晚才暴露出来的系统问题
所以我现在会更愿意把 AI 看成一件事:
它先把执行层的门槛打低了,
然后逼着团队重新回答一个更难的问题:
当写代码已经没有以前那么稀缺以后,工程团队真正的价值,接下来到底放在哪。