系列开篇:一个风控老兵的 OpenClaw 养殖手记
起因
上个月我跟团队说,以后我的助理叫「卷卷」。
团队愣了一下。卷卷?谁?
我说,AI。养了一段时间了,能帮我写方案、查资料、整理会议纪要,偶尔还能在技术群里帮我回两句不痛不痒的话。
他们笑了。
我也笑了。但我没说的是:这个助理,是我自己从零开始养大的。
从养规则到养虾
我做了10年支付风控。这10年干的事,说白了就三件:养规则、养策略、养团队。
养规则最简单——写个 if-else,上线,收工。养策略复杂一点——要调阈值、做灰度、盯指标、盯漏放。养团队最难——人会犯错、会偷懒、会离职、会搞出你根本没想到的骚操作。
今年年初,我开始养第四样东西:一个AI Agent。
它的名字叫 OpenClaw。社区里管它叫「小龙虾」。
为什么叫虾?我不知道。但我猜,是因为养它确实有点像养小龙虾——
要喂食(配置API Key和模型),要换水(定期清理session和memory),它会夹人(偶尔输出一些让你血压升高的内容),但养好了是真能干活。
什么是 OpenClaw?一句话版
OpenClaw 是一个自托管的AI Agent网关。
大白话:它跑在你自己的电脑上(或者服务器上),把你的聊天软件——微信、Telegram、Discord、iMessage——连接到一个AI助手。你在手机上发条消息,它就在你的Mac上跑代码、查资料、写文档,然后把结果发回来。
核心特点就三个词:
自托管——数据在你手里,不经过任何第三方服务器
多渠道——一个Gateway同时服务WhatsApp、Telegram、Discord等多个平台
Agent原生——不是简单的聊天机器人,它有工具调用、会话管理、记忆系统、多Agent协作
作为一个风控人,我对第一点特别敏感。你的AI对话记录、工作上下文、敏感信息——这些东西经过谁的服务器,你真的清楚吗?
用OpenClaw,这些东西就躺在你的 Mac Mini 上。没有任何中间商。
养虾第一天:装环境
安装过程简单到让我怀疑人生。
npm install -g openclaw@latest
openclaw onboard --install-daemon
openclaw channels login # 扫码配对WhatsApp
openclaw gateway --port 18789
四行命令。完事。
我之前搭过K8s集群、配过Nginx反向代理、折腾过Ansible playbook。跟那些比起来,这简直就是给鱼缸加了个过滤器。
装完之后,打开浏览器访问http://127.0.0.1:18789/,你会看到一个控制台Dashboard。能聊天、能看session、能管理配置、能调用工具。
手机上发WhatsApp消息给你的AI,它在Mac上跑,然后把结果发回手机。
整个链路:你的手机 → WhatsApp服务器 → 你的Mac上的Gateway → Agent执行 → 结果返回。
中间没有「云」。这就是为什么我一个风控人觉得舒服。
养虾第二周:学会喂食
AI Agent不是Siri,不是「帮我设个闹钟」那种。
OpenClaw的Agent有自己的工作空间(workspace),有记忆系统(memory),有技能(skills),能执行命令(exec)、操作浏览器(browser)、调用子Agent(subagent)。
刚装好的时候,它就是个空壳。你需要喂它。
1. 写灵魂文件
SOUL.md — 定义它的性格和工作风格。我的卷卷是这样写的:
核心定位:技术团队负责人的长期AI执行助理与决策参谋
工作原则:结论先行、面向负责人、结构化输出、高执行力、风控优先
USER.md — 告诉它你是谁、你的偏好、你的工作职责。
AGENTS.md — 工作协议、记忆管理规则、安全边界。
这些文件在每次会话开始时会被自动注入到Agent的上下文里。相当于你给虾投的第一把饲料。
2. 配模型和API Key
OpenClaw支持多家模型提供商——Anthropic、OpenAI、智谱、MiniMax等。你可以配一个主模型,再配几个轻量模型做路由。
我的配置大概是这样的:
默认模型 → 复杂任务用旗舰模型比如 glm-5.1
轻量任务 → 自动路由到便宜的flash模型
简单回复 → 不浪费token
风控人的本能:成本管控。不能让一个「帮我查天气」的请求烧掉一次旗舰模型调用费。
3. 装技能(Skills)
Skills 是 OpenClaw 的扩展系统。你可以用别人写好的,也可以自己写。
我装了这些:
- openclaw-wiki — 遇到问题先查文档
- self-improving-agent — 它会从错误中学习,记录教训
- himalaya — 管理邮件
- apple-reminders — 管理提醒事项
- weather — 查天气
- github — 操作GitHub PR和Issue
每个Skill都有一个 SKILL.md,定义了触发条件和执行流程。Agent会根据你发的消息自动判断该用哪个Skill。
这就像小龙虾学会了不同的捕食技巧——看到虾米就用钳子夹,看到藻类就用嘴啃。
养虾一个月:踩过的坑
坑1:记忆系统要自己维护
Agent每次会话是「失忆」的。它靠 <font style="color:rgb(13, 18, 57);">MEMORY.md</font>、<font style="color:rgb(13, 18, 57);">memory/daily/</font> 这些文件来保持连续性。
如果你不维护这些文件,它下次醒来就是白板一块。
我的做法:让它自己维护。配置了定时任务(cron),每天自动整理记忆:
09:00 — 记忆同步
18:00 — 日常记忆整理
21:00 — 经验提取
风控类比:这就像风控策略的「模型重训练」——你不能指望一个模型跑一年不更新。
坑2:它有时候会「夹人」
什么叫夹人?就是它突然输出一些离谱的内容。比如:
- 你问它「帮我查下邮件」,它开始给你写一首诗
- 你让它整理会议纪要,它把三个人说的话混在一起
- 你让它执行命令,它执行了你没让它执行的命令
这些问题的根源往往是:上下文太长导致模型注意力分散,或者Skill的触发条件写得太模糊。
解决办法:定期清理session、精简<font style="color:rgb(13, 18, 57);">SOUL.md</font>和<font style="color:rgb(13, 18, 57);">AGENTS.md</font>、给关键命令加审批(exec approvals)。
坑3:多渠道配置容易搞混
WhatsApp、Telegram、Discord各有各的配对方式。WhatsApp要扫码,Telegram要Bot Token,Discord要Webhook。
我第一次配Telegram的时候,把Bot Token和Chat ID搞反了,结果消息发到了一个我根本没加过的群里。
教训:先读文档,再动手。OpenClaw的docs写得还算清楚。
为什么风控人适合养虾?
这是我越养越觉得有意思的地方。
OpenClaw的很多设计理念,和风控系统的思路惊人地相似:
全屏复制
| 风控概念 | OpenClaw对应 |
|---|---|
| 规则引擎 | Skills系统(触发条件→执行流程) |
| 策略灰度 | 模型路由(按复杂度选不同模型) |
| 人审介入 | Exec Approvals(关键命令需确认) |
| 模型重训练 | Memory维护(定期整理和更新) |
| 多层防御 | Multi-Agent(主Agent+子Agent协作) |
| 审计日志 | Session JSONL(完整对话记录) |
| 熔断机制 | Queue模式(消息队列控制) |
你做了10年风控,天然就懂怎么「养」一个AI Agent。 因为你早就习惯了:定义规则、监控指标、处理异常、持续迭代。
区别只是,以前你管的是交易流,现在你管的是AI的「行为流」。
写在最后
有人问我:你一个做风控的,为什么去搞AI Agent?
我的回答是:因为风控的本质就是「定义规则、监控行为、处理异常」。
养一个AI Agent,本质上也是这件事。
只不过以前我管的是钱的流动,现在我管的是信息的流动。以前我防的是欺诈者,现在我防的是AI的胡说八道。
工具变了,底层思维没变。
所以,与其说是「转行」,不如说是「换了个鱼缸」。
养虾日记,未完待续。
下一篇:《SOUL.md 写作指南——怎么让你的AI Agent真正「懂」你》