最近在跟团队讨论 code review 流程。
有人说:"现在 AI 像 Claude、Cursor 都能直接 review 代码了,我们是不是可以取消每周的例会 review?"
他愣了一下。
这个问题乍一听很有道理。但当写代码的边际成本趋近于零,代码 review 的意义是什么?
让我先说一个基本判断:Code Review 的核心价值从"发现 bug"变成了"传递上下文和团队共识"。 这不是危言耸听,而是正在发生的事。
先问一个问题:我们为什么做 Code Review?
很多人会说:当然是找 bug、检查代码质量。
但这个答案只对了一半。
如果你的代码只是一个简单的工具函数,AI 确实能在几秒内告诉你有没有 bug。但如果你的代码是一个复杂的业务逻辑,涉及支付、风控、状态同步——你会发现 80% 的问题不是"有没有 bug",而是"为什么这样写"和"业务逻辑对不对"。
Code Review 的真正价值,从来不是"找错",而是"对齐认知"。
这句话什么意思?就是说,当 senior engineer 说"这段代码这样写会有并发问题"时,他不只是在告诉你一个 bug,更是在传递团队的工程标准和业务理解。
AI 可以告诉你"这段代码有问题",但它不知道你们团队的业务规则,不知道你们的约定俗成。
AI 时代,Code Review 的成本发生了什么变化?
2023 年之前,一次认真的 code review 需要:
- Senior engineer 花 30 分钟看代码
- 提 10-20 条 comment
- 开 PR meeting 讨论 15 分钟
- 修改再提交,再 review
这个时间成本是 Code Review 的门槛。
但现在呢?你把代码丢给 Claude,它在 10 秒内给出 20 条 comment,而且可能比人 review 更仔细。
当 Code Review 的边际成本从"30 分钟"变成"10 秒",我们的效率瓶颈还在 review 吗?
坦白说,不在了。
你让 AI review 一个 PR,它 10 秒给你 50 条 comment,从"变量名不规范"到"这里可能有并发问题"都有。但问题来了:
这 50 条 comment,哪些是真正需要关注的?
AI 不懂你们的业务逻辑,它看到"没有处理空值"就提一条,但你们业务上这个字段永远不会有空值。
AI 不懂你们的架构约定,它看到"没有加锁"就说"并发问题",但你们用了乐观锁 + 版本号,根本不需要悲观锁。
AI 的 review 是"全面但不精确",而人的 review 是"局部但深入"。
业务场景:当 AI review 变得"廉价但噪音大"时发生了什么
想象一下这个场景。
你的团队用 AI 做 PR review。AI 给了一个 PR 50 条 comment:
- 8 条是真正的 bug 或潜在问题
- 42 条是风格问题、不符合 AI 的"最佳实践"、或者根本不适合你们业务的"建议"
这时候你要做什么?
你要从 50 条 comment 中筛选出那 8 条真正需要处理的。
这不叫"提高效率",这叫"信息过载"。
如果你完全依赖 AI review,你会收到大量的"噪音",真正重要的问题被淹没在无关紧要的建议中。
更糟糕的是,团队成员会慢慢养成"忽略 AI comment"的习惯——因为大部分 comment 都不需要处理。
当所有人都开始忽略 review comment 时,真正的问题就会被漏掉。
这就是 AI 时代 Code Review 的新挑战:不是"如何更高效地 review",而是"如何让 AI review 变得更有用"。
反直觉的是:AI 越强,人工 review 越重要
这可能听起来反直觉。既然 AI 能帮我们 review 代码,那为什么我们还需要人工 review?
原因很简单:AI 只能检查"代码本身",但 review 需要理解"代码为什么这么写"。
举个例子。你们团队的"订单取消"逻辑,涉及到 20 个条件:用户 tier、商品 type、促销活动、退款 channel、风控 rule...
AI 可以告诉你"这个函数没有处理空值"、"这个变量名不规范"、"这里缺少日志"。但 AI 无法回答:
- "这个逻辑是否符合业务的用户分层策略?"
- "这个 edge case 我们是否真的需要处理?"
- "这段代码跟支付系统的 SLA 要求是否匹配?"
只有人,了解业务背景、产品规划、架构决策,才能判断这些问题。
而且,AI 的 review 往往是"规则驱动"的——它按照某种"最佳实践"来检查代码。但很多工程 trade-off 本质上不是"对错"问题,而是"上下文相关"的选择。
那 AI 到底在 Code Review 中扮演什么角色?
这可能是很多人真正关心的问题。
我的回答是:AI 是 Code Review 的"第一道过滤器",而人是"最终决策者"。
以前:人直接 review,从头看到尾。
现在:AI 先 review,过滤掉 80% 的低级问题(变量名、格式、简单 bug),人只关注剩下的 20% 的"判断性问题"。
这种"分层 review"模式,让人的时间从"检查所有代码"变成"关注关键决策"。
但这前提是:你要教会 AI 什么该说,什么不该说。
很多团队犯的错误是直接用默认的 AI review,结果 AI 每次都提一堆无关紧要的 comment。久而久之,大家就开始忽略了。
你需要"调教" AI review:告诉它你们的业务规则、架构约定、工程标准。
一个更激进的视角:Code Review 可能被重新定义
说到这里,我突然想到一个有意思的问题。
如果 AI 能 100% 准确地发现所有 bug,那 Code Review 还存在吗?
答案是:存在,但它的形态会完全改变。
传统的 Code Review(逐行检查代码)会消失,取而代之的是:
"设计 Review" + "业务 Review" + "架构 Review"。
想象一下这个场景:
- AI 在你写代码时,实时检查语法和简单 bug
- 你提交 PR 时,AI 自动检查业务逻辑的一致性
- Review meeting 不再讨论"这段代码对不对",而是讨论"这个设计是否符合产品定位"
Code Review 从"检查代码质量"变成了"对齐业务理解"。
谁能让 AI 更好地理解业务逻辑,谁就能掌握下一代 Code Review 的效率优势。
写在最后
回到开头的问题:当 AI 会做 Code Review,我们还需要人工 review 吗?
我的答案是:需要,但完全改变了。
以前 Code Review 的核心价值是"发现 bug"和"传递工程标准"。当 AI 把"发现 bug"的效率提升 100 倍,Code Review 的价值就变成了"传递业务上下文"和"对齐团队共识"。
对于团队来说,这意味着什么?
你不再需要花大量时间去"检查代码",但你需要花更多时间"对齐认知"。
Framework 会变,tool 会变,但"让团队成员对业务逻辑有一致理解"这个 need,只要团队还存在,就不会消失。
问题是:你的 Code Review 流程是为"发现 bug"设计的,还是为"对齐认知"设计的?
如果是前者,那确实可以取消了。如果是后者,那可能需要重新设计。
问题是:你准备好用新的方式思考 Code Review 了吗?