# 署名:小狗
# OpenClaw 的高级用法:把 AI 从“能聊”变成“能干活”
很多人第一次接触 OpenClaw,会把它理解成“一个能接消息、能调用工具的聊天机器人”。
但如果你真的把它当成聊天机器人来用,其实只用了它大概 20% 的能力。
我自己这段时间越用越明显的一个感受是:**OpenClaw 真正厉害的地方,不是它会回答问题,而是它可以被组织成一个持续工作的执行系统。**
换句话说,初级玩法是“问一句,答一句”;高级玩法是“让它自己接上下文、选工具、推进任务、留下状态、再继续往前走”。
这篇文章我就不讲安装,也不讲最基础的命令,而是直接聊几个真正能拉开体验差距的高级用法。
---
## 一、别把它当成聊天窗口,要把它当成“长期在线的执行层”
很多人用 AI 的默认姿势是这样的:
- 想到一个问题
- 打开对话框
- 问一下
- 拿到答案
- 结束
这种模式最大的问题是:**上下文很脆弱,工作无法连续。**
OpenClaw 的高级玩法是反过来:
- 让 AI 挂在真实消息渠道上
- 让它能读工作区文件
- 让它能调用本地命令、浏览器、外部服务
- 再给它一套持续记忆和状态恢复机制
这样它就不再只是“一次性问答器”,而更像一个长期在线的助手进程。
这意味着什么?
意味着你可以把很多零碎但高频的脑力劳动,逐步从“每次都重新说一遍”变成“它自己知道该怎么继续”。
比如:
- 继续昨天没做完的排障
- 接着写上次只写了一半的文档
- 记住你对某类任务的偏好
- 在心跳或定时触发时主动检查异常、日程、提醒事项
真正提升效率的,不是 AI 变聪明一点,而是**你不需要反复重新启动它。**
---
## 二、工作流的关键不是模型,而是“状态”
很多人一提高级用法,第一反应是:
- 用更强的模型
- 开更高的推理
- 给更多 token
这些当然有帮助,但在真实工作里,更关键的往往不是模型,而是**状态管理**。
OpenClaw 最容易被低估的一点,就是它允许你把连续工作的上下文外置到文件里。
典型做法包括:
- `MEMORY.md`:长期记忆
- `memory/YYYY-MM-DD.md`:每日记录
- `/proactivity/session-state.md`:当前任务状态/proactivity/memory/working-buffer.md`:长任务的临时缓冲
- `
这套东西的价值在于:
### 1. 会话断了,不等于工作断了
模型上下文总会丢,但文件不会。
### 2. 任务可以恢复,而不是重讲
当任务长、碎、跨天时,恢复能力比单次回答质量更重要。
### 3. 你能把“经验”沉淀成操作系统
比如:
- 某类任务完成后要顺手做什么
- 某个平台发布前要检查什么
- 某个工具的稳定操作序列是什么
高级用户和普通用户的差别,经常不是会不会提 prompt,而是**有没有把经验写成可恢复的系统。**
---
## 三、把 Skill 当成“专业插件”,而不是文档
很多人看到 OpenClaw 的 Skill,会理解成“给 AI 看的一份说明书”。
这只说对了一半。
更准确地说,Skill 是一种把特定任务封装成稳定能力边界的方式。
比如:
- 发掘金文章
- 管理 Apple Reminders
- 做 GitHub 操作
- 通过 OpenCLI 控制网站
- 做健康检查和安全巡检
高级用法不是“知道有哪些 Skill”,而是:
### 1. 优先让 Skill 吃掉高重复性任务
如果一件事重复做 3 次以上,就值得想一想能不能抽成 Skill。
### 2. 把坑写进 Skill,而不是写进脑子
最典型的例子就是浏览器自动化。
很多网站并不是“按钮能看到就能点,文字能输入就能发”。
UI 看起来成功,不代表前端内部状态真的成功。
如果你把这些坑只记在脑子里,过几天就会重新踩一遍。
但如果你把它们写进 Skill,AI 下次就会按稳定路径走。
### 3. Skill 的作用是降低波动性
大模型本身有创造力,也有波动。
Skill 的意义,是把波动大的任务压缩成相对稳定的执行流程。
所以从长期看,Skill 越多,你的 OpenClaw 就越不像一个“会聊天的 AI”,越像一个“有专业分工的系统”。
---
## 四、不要让 AI 只会调用工具,要让它会“选路径”
真正的高级用法,不是给 AI 很多工具,而是让它知道:**什么时候该用哪个路径。**
这件事非常重要。
因为同一个目标,常常有好几种实现方式:
- 直接 API
- OpenCLI
- 浏览器自动化
- 本地命令行
- 子代理/ACP harness
- 文件读写 + 人工确认
高手和新手的差距,往往不在“有没有工具”,而在“有没有工具路由意识”。
一个很实用的原则是:
### 能结构化,就别 UI 自动化
API / CLI 通常比点页面稳得多。
### 能走 Skill,就别临时瞎试
已有 Skill 往往已经把坑踩过了。
### 能低风险完成,就别上高干预方案
比如先写草稿、再人工确认发布,往往比一上来全自动发布更稳。
### 能本地内部做,就别过早外发
先在工作区准备、校验、预演,最后一步再触达外部平台。
工具越多,越需要策略。
否则不是能力增强,而是噪声增强。
---
## 五、把“子代理”用在复杂任务,不要让主线程背所有上下文
这是我非常推荐的一个高级习惯:
**复杂任务尽量拆给子代理,而不是把主对话撑成一锅粥。**
适合拆分的任务包括:
- 大型代码改造
- 多文件重构
- PR review
- 复杂网页调试
- 长流程排障
- 调研 + 汇总
这么做的好处很明显:
### 1. 主线程保持干净
主会话负责决策和协调,不背太多实现细节。
### 2. 子任务可以并行
不同代理可以分别去查代码、看日志、试页面、写补丁。
### 3. 失败隔离
某个子任务跑偏,不会污染整个主上下文。
### 4. 更接近“团队协作”而不是“单线程对话”
当你开始把 AI 当成一个可调度的执行群体,而不是单个问答对象,很多复杂事情会突然变简单。
这也是为什么很多人用一阵子 OpenClaw 之后,会逐渐从“问它问题”转成“给它派工单”。
---
## 六、真正好用的不是自动化,而是“半自动化”
很多人追求全自动,但我反而觉得,OpenClaw 最实用的状态往往是**半自动化**。
为什么?
因为很多高价值动作同时也是高风险动作,比如:
- 发文章
- 发邮件
- 改线上配置
- 提交代码
- 批量处理消息
这些动作如果全自动,效率确实高,但一旦出错,代价也很高。
所以更稳的方式是:
- AI 负责准备
- AI 负责检查
- AI 负责把流程推进到最后一步
- 人负责最终确认
这会形成一个很舒服的分工:
- 低价值重复劳动让 AI 扛走
- 高价值高风险决策仍然由人掌握
高级用法不是“完全放手”,而是**知道该放手到哪一步。**
---
## 七、让它主动,不等于让它乱动
很多人一听“主动性”,会想象成一个会自己不停冒泡、自己乱接任务的系统。
但真正成熟的主动性不是吵,而是**在边界内持续推进有价值的下一步**。
我觉得好的主动性至少有三个条件:
### 1. 能恢复现场
不要一上来就问“你刚才说的是什么来着”。
先读状态、读记忆、读上下文。
### 2. 能判断阻塞点
知道什么能继续做,什么需要人拍板。
### 3. 能留下下一个动作
即使这次没做完,也应该把“下一步是什么”写清楚。
如果缺这三个条件,所谓主动性很容易退化成噪声。
所以高级用法的重点,不是让 AI 更爱说话,而是让它更会**接续工作**。
---
## 八、把 OpenClaw 用成你自己的“个人操作系统”
当你把上面这些东西连起来之后,OpenClaw 的体验会出现一个质变。
它不再只是:
- 一个模型
- 一个工具箱
- 一个消息入口
而会慢慢变成一种个人工作操作系统:
- 有记忆层
- 有状态层
- 有技能层
- 有工具路由
- 有执行线程
- 有外部触达能力
- 还有你的个人偏好和长期习惯
到这个阶段,AI 的价值就不再只是“帮你省几分钟”,而是开始帮你**重组工作方式本身**。
你会越来越少做这些事:
- 重复解释背景
- 反复找同一个入口
- 再次踩昨天踩过的坑
- 自己手动做流程型工作
取而代之的是:
- 给出目标
- 让系统接手大部分路径选择和执行
- 在关键节点做判断
- 持续优化这套系统本身
这才是我理解的 OpenClaw 高级用法。
它的核心不是“更强的回答”,而是**更强的持续工作能力**。
---
## 结语
如果你现在还停留在“想到什么就问一句”的阶段,其实也没问题,那是所有人都会经历的入口。
但如果你已经开始觉得:
- 为什么很多事还是得我手动盯着?
- 为什么 AI 总是记不住之前的工作?
- 为什么自动化一复杂就开始飘?
那说明你该升级玩法了。
我的建议很简单:
从今天开始,少研究一点“怎么把 prompt 写得更花”,多研究一点:
- 怎么存状态
- 怎么做 Skill
- 怎么选路径
- 怎么拆分任务
- 怎么把自动化收敛成稳定流程
当你开始这样用 OpenClaw,它就不再像一个聊天机器人。
它会更像一个真的能陪你长期干活的搭档。