提交代码revie没重点?debug代码不小心上线?commit message 随手写了句
fix bug;这些重复繁琐的流程非常适合交给AI,咱们打工人也能省点事。
我构思的流程大概是这样的:
第一版:Cursor Commands
Cursor Commands 可以用一段自然语言生成指令:
## 总体流程
1. **收集改动范围**
**场景 A:审查工作区未提交的更改**
- 查看工作区的未提交改动(包括已暂存和未暂存的):
```bash
git diff HEAD
git diff --cached
```
......
2. **执行智能代码审查**
AI 会对收集到的代码改动进行深度分析,执行以下检测:
### 代码异常边界检测
包括但不限于以下情况:
- **越界相关逻辑**
- 数组/集合下标直接访问,没有边界检查
- 循环索引可能越界
- 字符串/列表切片可能越界
.....
3. **生成审查报告**
- **正常情况**:列出所有检测到的问题,按严重程度分类
- **发现异常**:显著提醒用户,使用醒目标记(如 ⚠️、❌ 等)
- **报告格式**:
```markdown
## 代码审查报告
### 审查范围
- 文件数量:X 个
- 改动行数:+Y / -Z
### ⚠️ 发现的问题
....
4. 基于google风格提交代码....
跑了几次,还行。上线到团队,但偶尔总是有反馈,不是codeReview被跳过,就是没有让用户确认。
第二版:Skills + Todo\Step
加点结构。我把流程改成 Skills,用 Todo 把每一步显式列出来。按顺序打勾、全部完成再收工。
这一版稳了一些,Review 也比之前认真。
但很快我发现一个新问题——如果当前 session 之前聊过别的东西,没清就直接跑提交,它会"记着"前面的上下文,有时候还是直接跳过 Review 进 commit。
session 越长,越容易出岔子。它似乎觉得"前面那段对话里我们已经聊过 Review 了",这次就省了。
我开始嘀咕,AI 在流程控制上,好像天生就容易打摆子。
那就自己做一个
问题其实清楚了——流程控制权不能交给 AI。
这话说起来简单,但市面上合适的编排工具,对我这种订阅党不太友好。大部分得自己接 LLM、自己充值 API Key。我手上有 Cursor、Claude 这些 coding plan,单纯为了跑个提交流程再单独开一套 API 账单,算不过来。
想来想去,干脆自己做一个。我给它起名叫 Agentflow。设计目标就两条:
一是不自己管 LLM,直接复用已有的 Cursor CLI、opencode、Claude 订阅。编排工具不该跟模型绑死。
二是流程结构固定。用 Node 做编排,节点之间的连接、条件、循环是工程层面写死的。AI 只负责每个节点里面的具体活——比如"Review 这批文件",做完吐结果,下一步走哪条路,编排器说了算。
于是就有了:
怎么用?
在AI对话框里面说出需求的内容:
新建一个agentflow:用户提供目标仓库地址,先用 git diff 拿到改动文件清单,分 add、delete、rename 展示,让我确认哪些要提交;确认后的文件进 Code Review,重点看边界、安全漏洞和逻辑 bug;有问题就问我是让 AI 修还是我自己修,修完循环检查;没问题就按 Google 规范写 commit,然后发 pr,把消息推到用户提供更多企微 webhook。
然后流程会按照预设的节点规则进行编排,如果需要写代码会自动补充代码,并形成工作流;
- provide类节点主要用来提供数据
- userCheck、userAsk、print节点主要用来做交互
- agent节点是核心,主要是利用cursor\opencode等cli去执行agent
- nodejs节点为代码执行器
等待几分钟,他自查自检后就有了。点击运行,还跑通了。
当然,他还支持命令行运行:
不仅仅于此
开发Agentflow之后,我发现他不仅仅适合固定化的流程编排,更适合长时间的agent流程+ai自愈。
比如,目前团队正在迭代的长时间运行场景包括:
- 大型模块迁移、编译自检;
- 完成UI稿的一次性还原、融合、自检;
总结是只要有较为明确的确认和检查机制,就能利用编排形成自愈环,从而长时间完成任务。
还原大家使用, github地址:github.com/pproject-gi…
Agentflow 目前还在迭代,欢迎star和issue,也希望工具能在某些场景帮助到你。 github地址:github.com/pproject-gi…