Hi~大家好呀,我是清汤饺子。 前几天让 Claude Code 帮我写个小功能,它噼里啪啦一顿输出,代码倒是挺像那么回事。一跑,报错 40 个。
我盯着屏幕愣了三秒,然后开始一个个手动修。
事后复盘,问题不在 AI 写的代码烂,而在于——它太有热情了。拿到需求就开干,根本不问我"你想解决什么问题"、"这个场景下最优解是什么"。
这感觉就像招了一个「执行力超强但完全没有工程纪律」的 junior。
然后我发现了 Superpowers。
01 解决什么问题
AI Coding Agent 最大的通病,懂的都懂:
- 拿到需求就开干:不等你确认,先肝为敬
- 不写测试:代码写完自己都不知道写了啥
- 代码像开盲盒:这次好使,下次不知道哪个版本就崩了
人类工程师有 TDD、有 code review、有设计评审,有一整套工程纪律来约束自己。但 AI Agent 呢?它只管输出,不管后果。
Superpowers 就是干这个的——给 AI Agent 装上一组技能卡,让它学会工程化的工作流。
不是让它更聪明,是让它更有章法。
02 Superpowers 是什么
这是 Jesse Vincent(GitHub @obra)做的一个开源项目,全称是 Superpowers — An agentic skills framework & software development methodology。
翻译成人话:一套给 AI 编程 Agent 用的技能框架。
它不是让你用更厉害的模型,而是让你的 AI Agent 具备一套工程化思维:
- 写代码前先做设计评审
- 先写测试再写实现
- 任务拆解到 2-5 分钟一个
- 子 Agent 并行执行 + 两阶段 review
支持 Claude Code、Cursor、Codex、OpenCode 和 Gemini,主流 AI 编程工具都能用。
03 这工作流是怎么跑起来的
第一步:brainstorming —— 先别写代码,灵魂拷问一下
Superpowers 的第一条技能叫 brainstorming,触发时机是「写代码之前」。
当 AI 看到你要做新功能,它不会直接开干,而是反过来问你:
"你到底想解决什么问题?" "这个场景下有哪些边界情况?" "你觉得最优解是什么?"
我第一次用它做设计,它连着问了我 6 个问题才肯动笔。那感觉……像找了个 senior 在给我做 design review。
Socratic 追问,让 AI 先理解需求再动手。这治好了 AI "拿到需求就肝" 的毛病。
第二步:writing-plans —— 任务拆解到 2-5 分钟
需求确认之后,进入 writing-plans 技能。
AI 会把整个功能拆成若干小任务,每个任务:
- 精确到文件路径
- 有完整的代码内容
- 有验收标准
更关键的是:每个任务 2-5 分钟就能跑完。
以前我让 AI 写整个功能,它容易迷失在中途。现在它把活儿拆成「傻瓜式操作手册」,就像给一个「执行力强但没耐心」的 junior 写了一份 2 分钟就能完成的小任务清单。
第三步:subagent-driven-development —— 子 Agent 并行跑
计划就绪,主 Agent 调度 subagent-driven-development 技能。
它的核心是:
- 子 Agent 并行执行:每个任务交给独立的子 Agent 处理
- 两阶段 review:先检查规格是否合规,再检查代码质量
- 连续运行能力:实测 Claude 可以连续跑 2 小时不用管
简单说就是:你当老板,AI 们当工人。主 Agent 包工头负责分配任务、监督进度、质量把关。
第四步:TDD 红绿重构 —— 先写测试这道坎
这是我觉得最有价值的部分:test-driven-development。
核心流程就三步:
- RED:写一个注定失败的测试
- GREEN:写最少的代码让测试通过
- REFACTOR:重构优化
重点是:必须先写测试,再写实现,测试前的代码直接删掉。
这治好了 AI "写完代码懒得测" 的毛病。以前我让 AI 写功能,它输出完就完事,根本不管测试。现在它被强制绑上了 TDD 的战车。
第五步:收尾工作 —— finishing-a-development-branch
任务全部完成后,finishing-a-development-branch 技能接管:
- 验证所有测试通过
- 给出四个选项:merge / PR / 保留 / 丢弃
- 自动清理 worktree
不需要你手动去处理分支清理,AI 会把收尾工作做完。
04 技能全景图
| 技能 | 触发时机 | 作用 |
|---|---|---|
| brainstorming | 写代码前 | 需求澄清,Socratic 追问 |
| writing-plans | 设计批准后 | 任务拆分,2-5min/任务 |
| using-git-worktrees | 设计批准后 | 创建独立分支,验证干净测试基线 |
| verification-before-completion | 调试完成后 | 验证问题真的修好了 |
| subagent-driven-development | 计划就绪 | 子 Agent 并行执行 + 两阶段 review |
| test-driven-development | 实现中 | 强制红绿重构 |
| systematic-debugging | 调试时 | 4 阶段根因分析 |
| requesting-code-review | 任务间 | 按严重性报告问题 |
| finishing-a-development-branch | 任务完成 | 收尾 + 分支清理 |
这套技能的精妙之处在于:触发完全自动。你不需要手动调用,AI 会根据当前任务状态自动匹配技能。
就像给 AI 装了一堆「工程化本能」,遇到对应场景自动触发。
05 怎么装上
各平台安装方法:
Claude Code
# 方式一:官方 Claude 插件市场(推荐)
/plugin install superpowers@claude-plugins-official
# 方式二:社区 marketplace(需要先注册)
/plugin marketplace add obra/superpowers-marketplace
/plugin install superpowers@superpowers-marketplace
Cursor
# 在 Agent chat 中
/add-plugin superpowers
Codex
Fetch and follow instructions from https://raw.githubusercontent.com/obra/superpowers/refs/heads/main/.codex/INSTALL.md
安装大约 5 分钟,配上之后的感觉像是——给 AI 做了一个完整的入职培训。
06 真实感受
惊喜时刻:
- 项目节奏完全变了。以前我追着 AI 跑,现在是 AI 追着任务跑
- Claude 真的能连续跑 2 小时不出岔子
- TDD 闭环治好了我懒得写测试的毛病
崩溃时刻:
- 第一次用的时候它问太多问题(brainstorming 阶段),差点想卸载
- 配置比想象中复杂,需要花时间理解每个技能的触发逻辑
适合的人:
- 有一定经验的开发者,懂 TDD、懂工程化的人用起来如虎添翼
- 团队协作场景,AI 能承接更多的工程纪律
不适合的人:
- 纯新手可能觉得被束缚,不知道为什么要这么做
- 小项目不值得折腾,简单功能直接让 AI 写反而更快
07 本质是什么
用了一圈下来,我觉得 Superpowers 的本质是:
不是让 AI 替代你,是让它成为更有章法的搭档。
它不是在提升 AI 的智商,而是在约束 AI 的行为——让它像人类工程师一样思考、像人类工程师一样工作。
以前我把活儿交给 AI,总是提心吊胆,不知道它会整出什么幺蛾子。现在有了 Superpowers 的工程化约束,我更愿意把任务交给 AI 了。
因为它不会再半夜给我埋雷。
08 技术原理
看完了 GitHub 仓库之后,我发现 Superpowers 的实现比"配置文件合集"要精妙得多。
SKILL.md:技能即文档
每个技能都是一个 .md 文件(Markdown),放在 skills/ 目录下。文件格式包含两部分:
Frontmatter(YAML 元信息) :
---
name: brainstorming
description: Use when [condition] - [what it does]
---
正文内容:技能的详细指令,告诉 AI 在什么场景下怎么做。
关键是 description 字段——这是 AI 自动发现和触发技能的依据。Codex/Claude Code 在每次任务执行前,会扫描 ~/.agents/skills/ 目录,根据 description 匹配当前上下文,自动激活对应技能。整个过程不需要你手动调用。
7 步接力:上游输出驱动下游输入
每一步的输出成为下一步的输入:
- brainstorming 产出设计文档(human-approved)
- using-git-worktrees 创建隔离分支环境
- writing-plans 把设计拆成任务清单
- subagent-driven-development 按任务执行 + 两阶段 review
- test-driven-development 强制 TDD
- requesting-code-review 任务间按严重性报告问题
- finishing-a-development-branch 收尾
两阶段 Review:规格合规 → 代码质量
每个子 Agent 完成任务后,经历两关:
- 规格合规性审查:任务有没有按 plan 执行?有没有超出范围?
- 代码质量审查:代码本身写得怎么样?有没有明显 bug 或坏味道?
两关都过,才进入下一个任务。这治好了 AI "做多了或做歪了" 的问题。
TDD 强制闭环
test-driven-development 的核心规则:
- RED:AI 必须先写一个注定失败的测试
- GREEN:然后写最少的代码让测试通过
- REFACTOR:最后重构优化
最狠的一条:测试写出来之前的代码直接删掉。AI 没有"先写实现后补测试"的选项。
哲学层:Process over guessing
README 里 Jesse Vincent 写了四条原则:
- Test-Driven Development — 先写测试,永远
- Systematic over ad-hoc — 系统化流程 > 猜测
- Complexity reduction — 简单性是首要目标
- Evidence over claims — 用验证说话,不要只靠感觉
本质就是:不要相信 AI 的直觉,要相信工程纪律。
GitHub 仓库:github.com/obra/superp…
写在最后
Superpowers 这套技能框架,解决的不是 AI 能力不足的问题,而是 AI 行为不可控的问题。
如果你也在用 AI Coding Agent,感觉它"太热情但不靠谱",建议试试这套方法论。
当然,它不是银弹。工程纪律是给有工程经验的人用的,如果你本身对 TDD、代码审查这些概念不熟悉,Superpowers 可能会让你更困惑。
核心问题是:你愿不愿意花时间教会 AI 按你的方式工作?
这个问题没有标准答案,取决于你的项目规模和团队情况。
你在用 AI 编程工具吗?有什么"AI 疯狂输出但最后还是我来收拾烂摊子"的经历吗?欢迎在评论区聊聊,看看大家都有什么奇葩故事。
如果觉得有帮助,点个赞收藏一下,我会更有动力更新下一期。
也欢迎关注我的公众号「清汤饺子」,获取更多技术干货!