大多数人用错了 AI 编程助手。
他们把 AI 当成"更聪明的搜索引擎"——遇到报错,粘贴错误信息,等答案。这没用错,但用浅了。
2024 年 GitHub 对 2000 名开发者的调查显示:73% 的人使用 AI 辅助编程,但只有 12% 认为 AI 显著提升了他们的工作效率。差距在哪?
差距在于:用 AI 写代码 vs 用 AI 完成任务。
前者是"帮我写个排序函数",后者是"把这个 5000 行的文件重构到 5 个模块,保持测试通过"。前者 AI 做得好,后者传统工具做不到——因为后者需要上下文理解、项目结构认知、执行能力和记忆。
iFlow CLI 做的就是后者。
它怎么做到的?
第一,它能真正"看懂"你的项目。
不是读几个文件,而是理解整个代码库的结构。你让它找"错误处理逻辑在哪",它不会只搜索关键字——它会理解你的项目架构,知道错误是在哪一层被捕获、怎么被传递、应该在哪修复。
我在重构一个 Express 项目时,问它"这个项目有哪些接口依赖 Redis"。它不只是 grep "redis",而是追踪了每个路由的依赖链,给出了 12 个接口的调用路径。这比搜索关键字准太多了。
第二,它记得你是谁。
它知道我在做"礼记"小程序,知道我的服务器配置(阿里云 100.64.0.3),知道我的 Tailscale 网络拓扑。每次对话,我不用重复交代背景。
传统 AI 像失忆的同事——每次见面都要重新介绍项目。iFlow 像合作了三年的老搭档——一个眼神就知道你要什么。
第三,它能动手。
让它修复 bug,它会读代码、改代码、跑测试、确认通过。让它部署,它会登录服务器、拉取代码、重启服务、发消息通知你。
这不是"建议",这是"执行"。
为什么这很难?
让 AI 理解代码库,比让 AI 写代码难一个量级。
写代码只需要语法知识和 API 文档。理解代码库需要:知道文件之间的关系、理解分层架构、判断哪些是核心逻辑哪些是历史债务、推测原作者的意图。
这需要的不只是能力,是"上下文"。
Context 是 AI 的硬伤。GPT-4 的上下文窗口是 128K token,听起来很多,但一个中型项目的代码轻松超过。更难的是:如何从几十万行代码中,找到和当前问题相关的那几行?
iFlow 的解法是:渐进式探索。它不会一次性读完整项目,而是像人一样——先看入口文件,再顺藤摸瓜找到相关模块。这个过程,和有经验的开发者 debug 的方式一样。
这改变了什么?
上周,用户要我在 heizi-ai 项目里加一个"工作流引擎"。我给 iFlow 的指令是:
在 /root/heizi-ai/src/core/ 下创建工作流引擎,支持条件分支和并行执行,参考现有的 orchestrator.js 架构风格。
它做了什么:
- 读了 orchestrator.js,理解了现有的架构风格
- 设计了工作流的数据结构
- 写了 workflow.js 的核心逻辑
- 在 routes/api.js 里加了对应的 API 端点
- 自己跑了一遍,发现少了个依赖,补上了
全程我没打开编辑器。
但别误会,它不是来取代你的。
iFlow 能做的事,都建立在一个前提上:你知道要做什么。
它能执行你的意图,但不能替你思考意图。它能重构代码,但不能告诉你应该重构什么。它能解决 bug,但不能告诉你这个功能值不值得做。
AI 是放大器,不是替代品。它放大的,是你已经具备的能力。如果你不知道要做什么,它只能帮你更快地做错事。
所以,什么人适合用 iFlow?
不是编程新手——他们更需要学习基础知识,而不是跳过思考过程。
是那些:知道自己要什么、但不想在琐事上浪费时间的人。是那些:项目已经复杂到记住所有细节不现实的人。是那些:愿意把重复劳动交给机器、把思考留给自己的人。
凌晨两点的服务器故障,我以后还会遇到。
但至少,我不会再一个人盯着日志发呆。
我会打开终端,敲下一句话,然后去睡觉。
剩下的,交给 iFlow。