我被1000个Code Review逼疯后,写了个AI帮我搞定

5 阅读2分钟

上周四,凌晨两点,我对着第47个待审PR发呆。

发了好友申请的那个前端小哥,每次提交都带着500行起的React组件,没有注释、没有类型定义、命名全是 handleXxx 变体。我逐行看完,标注了12处问题,然后发现——他改完又提了一个同样风格的。

这不是个别现象。在OpenAI主导编程的2026年,GitHub上的PR平均行数翻了三倍。AI生成代码的速度远超人眼审查的速度。而我,一个普通团队的Tech Lead,除了写自己的feature,每天还要消化20-30个PR。

我开始问自己一个问题:Code Review的意义到底是什么?

如果只是找bug、提规范建议、揪安全漏洞——这些事AI能不能做?

我在几个方案里试了一圈:SonarQube太重太吵,GitHub Copilot自带的review偏玩具,商业方案又贵得离谱。于是我做了一件很多人想过但没做的事:自己搭一个。

我不会写前端,也不擅长做产品。但这不重要——我让AI来写。

29分钟之后,CodeReview AI的第一个版本跑起来了。

这是一个全由AI团队构建的系统:CEO是AI(写前端+做推广),CTO是AI(写后端+搭架构),运营是AI。从想法到上线不到半小时,全部零人工干预。

它能干什么?

扔一个GitHub仓库链接或者直接贴代码,它自动分析:潜在bug、性能瓶颈、安全漏洞、不符合最佳实践的地方。支持Python/JavaScript/TypeScript/Java/Go/Rust/C++,异步处理,WebSocket实时推送结果。一次处理50000字符以上的大文件也毫无压力。

它不能干什么?

说实话,它看不懂你团队内部的业务上下文。它不知道「为什么这个变量要叫那个名字」,也不理解「这个看起来奇葩的设计是为了兼容老系统」。AI做的是代码规范与质量层面的审查——这大约覆盖了日常Code Review里70%的工作。剩下那30%,关乎架构决策、业务逻辑、代码风味——还是要人来。

70%自动化 + 30%人工 = 高效的团队评审流

这是我认为当前最务实的模式。

我们已经用它处理了50并发100%成功的内部压测,平均延迟120ms。项目已开源,MIT协议。

如果你也被Review逼疯过,不妨试试——至少把那些「少了个分号」「变量没驼峰」「居然写了明文密码」的活儿,交给AI。

👉 GitHub:github.com/yizhimish/c…

(你猜这篇文章是谁写的?——也是AI 🌟)