AI 自己做产品
起因是我看到了一个开源项目是让ai反复执行函数的算法提升,而结果是确实可以实现,直到瓶颈。
于是我想到了递归,不只是函数递归,而是产品开发的递归,我想到了:让 AI 自己完成项目开发
我只定义规则,它自己去调研需求、写代码、反复测试,直到交给我一个可用的项目。
感兴趣请移步 autoForge
它是怎么工作的?
你只需要在.env中配置任何一个模型的api key,然后运行:
python main.py
然后它会自己跑完整个流程:
- 去 GitHub 扫描,看看现在缺什么工具
- 分析市场缺口,决定做什么
- 搭建项目结构
- 写代码 + 写测试
- 跑测试,失败就自己分析原因、自己修
- 修好了继续跑,直到全过
- 生成 MCP 协议封装,可以直接给 OpenClaw 用 全程不需要干预,全量测试通过后结束。
demo
当我指定了文件管理器的方向后,在执行过程中有三个方案通过了GitHub 查重 + PyPI 鉴权扫描。分别是Deduplify/SyncSweep/CachePurge
最终它分析 GitHub 后,发现"同步文件夹的重复文件清理"这个需求有市场缺口——很多人用 Dropbox/OneDrive 同步文件,时间久了会有大量重复文件,但现有工具要么收费,要么不好用。
于是它选择了 SyncSweep 并且进行开发,这是个轻量级的项目。
18 分钟后,它交货了:
- 26 个测试全部通过
- 4 个 MCP 工具函数
- 可以直接挂载到 Claude Desktop
我试着用了一下,确实能用。它能找出重复文件、检测同步冲突、生成清理报告。
关键是我一行代码都没写。
规则
这个项目最重要的其实是定义规则。最开始我定义了8条规则,后面补充到了15条。
例如不能依赖任何主观判断,如文章/图片/视频 好坏,只看客观且新鲜的的数据,不能依赖用户授权/扫码等所有用户交互和提供api key,必须支持mcp,能够被openClaw直接调用,生成的内容要能够完全自测,不能有需要介入的部分等等。后续在开发过程中完善了一些限制条件,熔断机制。
规则其实取决于你想做一个什么样的产品,如果你想实现一个自媒体方向的,你只需要添加一条规则。如果你能接受他在生成过程和测试过程中扫码登陆,授权cookie,或者提供高德api key等等,你可以自由配置
测试
AI 写代码很容易,review和测试很麻烦。
传统的做法是人去看报错信息,然后告诉 AI 怎么改。但这就违背了"全自动"的初衷。
我设计了一个三级修复策略:
第一级 PATCH:小修小补,改几行代码
第二级 RETHINK:PATCH 不管用,说明思路可能有问题,换一种算法或者引入第三方库
第三级 NUKE:实在修不好,清空重来,走一条全新的路径
这套策略让它可以在没有人类干预的情况下,自己从失败中走出来。
实际测试下来,大约 80% 的问题在 PATCH 阶段就能解决,15% 需要 RETHINK,只有 5% 左右会触发 NUKE。
项目地址
开源在 GitHub:autoForge
感兴趣可以试试,有问题欢迎提 Issue。
如果觉得有用,点个 Star 是对我最大的鼓励 ⭐