我试了下 superpowers:它不是“更强的提示词”,而是一套让 AI 编程少跑偏的工作流
现在,是全民聊 AI 编程的时代。
但如果你真的把 Claude Code、Cursor 或 Codex 用进日常开发,很快就会发现一个很现实的问题:
不是模型不够聪明,而是它经常太着急。
你刚说一句“帮我做个功能”,它已经开始改代码了。 需求还没对齐,边界还没想清楚,测试也没写,最后产出一大坨“看起来很努力”的东西,回头还得自己收拾。
我最近看到一个挺有代表性的项目:superpowers。
它在 GitHub 上已经很火了,现在是 11.2 万 Star。它吸引人的点,不是又发明了一个新模型,也不是教你写几条更花哨的 prompt,而是试图解决一个更实际的问题:
怎么让 coding agent 像一个靠谱的工程师,而不是一个冲动的实习生。
superpowers 到底是什么
先说结论:
superpowers 本质上是一套给 AI 编程助手用的工作流和 skills 框架。
它的核心思路不是“让模型更聪明”,而是把一套成熟的软件开发流程,拆成一组可以自动触发的 skill,让 agent 在不同阶段按流程做事。
官方 README 里讲得很直白,这套东西覆盖的是一条完整链路:
- 先做 brainstorming,把需求聊清楚
- 再写 design 和 implementation plan
- 然后按任务拆分执行
- 执行过程中强调 TDD、review、验证
- 最后再收尾分支、整理结果
换句话说,superpowers 不是让 AI 多会写代码,而是尽量让它少在错误的时机写代码。
这件事其实很重要。
因为很多 AI 编程翻车,不是翻在语法上,而是翻在流程上:
- 需求没确认就开始写
- 方案没收敛就直接改
- 一口气改十几个文件,没有验证点
- 自己写完自己宣布“好了”
- 测试没补,边界没看,回归没做
superpowers 想解决的,就是这些问题。
它适合谁
如果你是下面这几类人,我觉得都可以看看:
- 经常用 Codex、Claude Code、Cursor 写代码
- 已经感觉到“AI 会写,但很容易跑偏”
- 想把 AI 从“代码补全工具”用成“工程协作工具”
- 希望它在动手前先想清楚,而不是一上来就开改
如果你只是偶尔让 AI 写个小脚本,那未必需要上这套东西。 但如果你已经开始让 agent 接手一个相对完整的开发任务,这种 workflow 型项目就很值得看了。
superpowers 的使用方式,最值得看的其实是 Codex 这一版
这个项目支持不止一个平台,README 里列了 Claude Code、Cursor、Codex、OpenCode、Gemini CLI 等安装方式。
如果你本来就在用 Codex,那最直接。
官方给的 Codex 用法非常简单,核心就两步:
- 把仓库 clone 到本地
- 把里面的
skills目录链接到 Codex 的技能发现目录里
官方文档给出的入口是这句:
Fetch and follow instructions from https://raw.githubusercontent.com/obra/superpowers/refs/heads/main/.codex/INSTALL.md
也就是说,你甚至可以直接把这句交给 Codex,让它按安装说明来做。
如果手动安装,核心命令大概是这样:
git clone https://github.com/obra/superpowers.git ~/.codex/superpowers
mkdir -p ~/.agents/skills
ln -s ~/.codex/superpowers/skills ~/.agents/skills/superpowers
然后重启 Codex,就能让它在启动时发现这些 skills。
这里有个细节值得注意:
superpowers 并不是通过一段超长系统提示词硬塞进去的,它更像是接入了一组按需加载的技能。
这和现在很多 agent skill 的思路是一致的。 平时不把所有东西都塞进上下文,等任务匹配时再触发对应 skill,既省 token,也更容易让行为稳定下来。
装完之后,怎么用
很多人第一次看到这种项目,会以为自己得背一堆命令。
其实不是。
官方文档里强调了一点:skills 会自动发现,并在任务匹配时自动触发。
也就是说,正常用法不是“先记住所有 skill 名称”,而是像平时一样提需求,但 agent 会更倾向于按流程走。
比如你说:
- 帮我规划这个功能
- 一起排查这个 bug
- 给这个需求写个实现方案
- 按计划分步骤做,不要一次改太多
这类任务都比较容易触发它的 workflow。
README 里列出的基础工作流,大致包括这些阶段:
brainstormingusing-git-worktreeswriting-planssubagent-driven-development或executing-planstest-driven-developmentrequesting-code-reviewfinishing-a-development-branch
你可以把它理解成: superpowers 帮你给 agent 装了一套“先想、再拆、再做、边做边验、最后收尾”的工程习惯。
一个更实际的例子:它会怎么改变你和 AI 的协作方式
假设以前你是这样用 AI 的:
帮我给这个项目加一个用户设置页面
常见结果是,AI 直接开始:
- 新建页面
- 改路由
- 补几个组件
- 顺手再重构点别的
- 最后告诉你“已经完成”
表面上很高效,但风险也很高。因为你还没确认:
- 设置项有哪些
- 权限边界是什么
- 数据从哪来
- 要不要先写接口
- 有没有现成 UI 可以复用
- 测试怎么补
而 superpowers 更希望 agent 先做这些事:
- 先跟你澄清需求
- 输出一个简短、可确认的设计
- 再写实现计划,拆成小任务
- 按任务逐步执行
- 每一步都做验证和 review
这套方式不一定让“第一分钟看起来更快”,但通常会让半小时之后的结果更靠谱。
这点其实很像真实开发: 靠谱的工程师,往往不是敲得最快的那个,而是能控制返工的人。
我觉得它最有价值的地方,不是“自动化”,而是“约束”
superpowers 真正打动我的,不是它有多少个 skill,而是它在试图给 AI 编程加约束。
现在很多人对 agent 的期待,还是“最好一句话把活干完”。 但稍微复杂一点的项目里,真正稀缺的从来不是“生成代码”这一步,而是:
- 有没有先把问题定义清楚
- 有没有把任务拆到可执行
- 有没有验证每一步真的成立
- 有没有在完成前做 review
这套项目的价值,在于它把这些“本来应该由人盯着做的流程”,尽量产品化成了一组可复用的 skill。
你可以说它是在增强 agent。 但换个角度看,它其实是在限制 agent 乱来。
而在今天这个阶段,我觉得这件事比“再多写 500 行代码”重要得多。
它也不是没有门槛
当然,这个项目也不是装上就能立刻起飞。
我觉得至少有几个现实限制:
- 你本身得接受“先规划、再执行”这套节奏
- 如果你只想让 AI 快速写点小东西,这套流程可能偏重
- 它更适合中等复杂度以上的任务,越复杂越能体现价值
- 不同平台的接入方式不一样,Codex 和 OpenCode 还需要手动配置
另外还有一点很关键:
workflow 再好,也不能替代你自己的判断。
它能让 agent 更像工程师,但不能让一个模糊需求自动变成好产品。 你还是得知道自己要解决什么问题,哪些地方要保守,哪些地方能快速试错。
要不要试
如果你现在已经明显感觉到:
“AI 很能写,但总是容易偏” “每次都要我把它拉回来” “我想让它做得更像一个开发搭子,而不是自动代码生成器”
那 superpowers 值得试一下。
尤其是你本来就在用 Codex、Claude Code 这类工具,它的上手成本不算高,理解成本也没有想象中那么大。
你不用把它看成一个神奇插件。 把它看成一套给 agent 加上的工程纪律,反而更容易理解。
说白了,它不是让 AI 变魔法。
它只是提醒我们一件很朴素的事:
软件开发里,流程本身就是能力。