我试了下 superpowers:它不是“更强的提示词”,而是一套让 AI 编程少跑偏的工作流

0 阅读7分钟

我试了下 superpowers:它不是“更强的提示词”,而是一套让 AI 编程少跑偏的工作流

现在,是全民聊 AI 编程的时代。

但如果你真的把 Claude Code、Cursor 或 Codex 用进日常开发,很快就会发现一个很现实的问题:

不是模型不够聪明,而是它经常太着急。

你刚说一句“帮我做个功能”,它已经开始改代码了。 需求还没对齐,边界还没想清楚,测试也没写,最后产出一大坨“看起来很努力”的东西,回头还得自己收拾。

我最近看到一个挺有代表性的项目:superpowers

它在 GitHub 上已经很火了,现在是 11.2 万 Star。它吸引人的点,不是又发明了一个新模型,也不是教你写几条更花哨的 prompt,而是试图解决一个更实际的问题:

怎么让 coding agent 像一个靠谱的工程师,而不是一个冲动的实习生。

superpowers 到底是什么

先说结论:

superpowers 本质上是一套给 AI 编程助手用的工作流和 skills 框架。

它的核心思路不是“让模型更聪明”,而是把一套成熟的软件开发流程,拆成一组可以自动触发的 skill,让 agent 在不同阶段按流程做事。

官方 README 里讲得很直白,这套东西覆盖的是一条完整链路:

  • 先做 brainstorming,把需求聊清楚
  • 再写 design 和 implementation plan
  • 然后按任务拆分执行
  • 执行过程中强调 TDD、review、验证
  • 最后再收尾分支、整理结果

换句话说,superpowers 不是让 AI 多会写代码,而是尽量让它少在错误的时机写代码

这件事其实很重要。

因为很多 AI 编程翻车,不是翻在语法上,而是翻在流程上:

  • 需求没确认就开始写
  • 方案没收敛就直接改
  • 一口气改十几个文件,没有验证点
  • 自己写完自己宣布“好了”
  • 测试没补,边界没看,回归没做

superpowers 想解决的,就是这些问题。

它适合谁

如果你是下面这几类人,我觉得都可以看看:

  • 经常用 Codex、Claude Code、Cursor 写代码
  • 已经感觉到“AI 会写,但很容易跑偏”
  • 想把 AI 从“代码补全工具”用成“工程协作工具”
  • 希望它在动手前先想清楚,而不是一上来就开改

如果你只是偶尔让 AI 写个小脚本,那未必需要上这套东西。 但如果你已经开始让 agent 接手一个相对完整的开发任务,这种 workflow 型项目就很值得看了。

superpowers 的使用方式,最值得看的其实是 Codex 这一版

这个项目支持不止一个平台,README 里列了 Claude Code、Cursor、Codex、OpenCode、Gemini CLI 等安装方式。

如果你本来就在用 Codex,那最直接。

官方给的 Codex 用法非常简单,核心就两步:

  1. 把仓库 clone 到本地
  2. 把里面的 skills 目录链接到 Codex 的技能发现目录里

官方文档给出的入口是这句:

Fetch and follow instructions from https://raw.githubusercontent.com/obra/superpowers/refs/heads/main/.codex/INSTALL.md

也就是说,你甚至可以直接把这句交给 Codex,让它按安装说明来做。

如果手动安装,核心命令大概是这样:

git clone https://github.com/obra/superpowers.git ~/.codex/superpowers
mkdir -p ~/.agents/skills
ln -s ~/.codex/superpowers/skills ~/.agents/skills/superpowers

然后重启 Codex,就能让它在启动时发现这些 skills。

这里有个细节值得注意:

superpowers 并不是通过一段超长系统提示词硬塞进去的,它更像是接入了一组按需加载的技能。

这和现在很多 agent skill 的思路是一致的。 平时不把所有东西都塞进上下文,等任务匹配时再触发对应 skill,既省 token,也更容易让行为稳定下来。

装完之后,怎么用

很多人第一次看到这种项目,会以为自己得背一堆命令。

其实不是。

官方文档里强调了一点:skills 会自动发现,并在任务匹配时自动触发。

也就是说,正常用法不是“先记住所有 skill 名称”,而是像平时一样提需求,但 agent 会更倾向于按流程走。

比如你说:

  • 帮我规划这个功能
  • 一起排查这个 bug
  • 给这个需求写个实现方案
  • 按计划分步骤做,不要一次改太多

这类任务都比较容易触发它的 workflow。

README 里列出的基础工作流,大致包括这些阶段:

  • brainstorming
  • using-git-worktrees
  • writing-plans
  • subagent-driven-developmentexecuting-plans
  • test-driven-development
  • requesting-code-review
  • finishing-a-development-branch

你可以把它理解成: superpowers 帮你给 agent 装了一套“先想、再拆、再做、边做边验、最后收尾”的工程习惯。

一个更实际的例子:它会怎么改变你和 AI 的协作方式

假设以前你是这样用 AI 的:

帮我给这个项目加一个用户设置页面

常见结果是,AI 直接开始:

  • 新建页面
  • 改路由
  • 补几个组件
  • 顺手再重构点别的
  • 最后告诉你“已经完成”

表面上很高效,但风险也很高。因为你还没确认:

  • 设置项有哪些
  • 权限边界是什么
  • 数据从哪来
  • 要不要先写接口
  • 有没有现成 UI 可以复用
  • 测试怎么补

而 superpowers 更希望 agent 先做这些事:

  1. 先跟你澄清需求
  2. 输出一个简短、可确认的设计
  3. 再写实现计划,拆成小任务
  4. 按任务逐步执行
  5. 每一步都做验证和 review

这套方式不一定让“第一分钟看起来更快”,但通常会让半小时之后的结果更靠谱

这点其实很像真实开发: 靠谱的工程师,往往不是敲得最快的那个,而是能控制返工的人。

我觉得它最有价值的地方,不是“自动化”,而是“约束”

superpowers 真正打动我的,不是它有多少个 skill,而是它在试图给 AI 编程加约束。

现在很多人对 agent 的期待,还是“最好一句话把活干完”。 但稍微复杂一点的项目里,真正稀缺的从来不是“生成代码”这一步,而是:

  • 有没有先把问题定义清楚
  • 有没有把任务拆到可执行
  • 有没有验证每一步真的成立
  • 有没有在完成前做 review

这套项目的价值,在于它把这些“本来应该由人盯着做的流程”,尽量产品化成了一组可复用的 skill。

你可以说它是在增强 agent。 但换个角度看,它其实是在限制 agent 乱来

而在今天这个阶段,我觉得这件事比“再多写 500 行代码”重要得多。

它也不是没有门槛

当然,这个项目也不是装上就能立刻起飞。

我觉得至少有几个现实限制:

  • 你本身得接受“先规划、再执行”这套节奏
  • 如果你只想让 AI 快速写点小东西,这套流程可能偏重
  • 它更适合中等复杂度以上的任务,越复杂越能体现价值
  • 不同平台的接入方式不一样,Codex 和 OpenCode 还需要手动配置

另外还有一点很关键:

workflow 再好,也不能替代你自己的判断。

它能让 agent 更像工程师,但不能让一个模糊需求自动变成好产品。 你还是得知道自己要解决什么问题,哪些地方要保守,哪些地方能快速试错。

要不要试

如果你现在已经明显感觉到:

“AI 很能写,但总是容易偏” “每次都要我把它拉回来” “我想让它做得更像一个开发搭子,而不是自动代码生成器”

那 superpowers 值得试一下。

尤其是你本来就在用 Codex、Claude Code 这类工具,它的上手成本不算高,理解成本也没有想象中那么大。

你不用把它看成一个神奇插件。 把它看成一套给 agent 加上的工程纪律,反而更容易理解。

说白了,它不是让 AI 变魔法。

它只是提醒我们一件很朴素的事:

软件开发里,流程本身就是能力。