OpenClaw v2026.4.7 实测:修修补补,但很关键
今天早上照例刷 GitHub,看到 OpenClaw 释出了 v2026.4.7 版本。这更新包还挺大,一看贡献名单有 45 号人。虽然没有那种惊天动地的大改版,但全是硬核的“填坑”和实用功能。特别是昨天那个把 CPU 跑满的定时任务 Bug,终于在这一版修好了,必须给个好评。
简单聊聊我重点关注的几个改动,以及我最近发现的一个能极大提升跑分效率的“物理外挂”。
1. 那个让人怀念的“长期记忆”回来了
之前版本里,memory-wiki 模块一度从主包里消失了,搞得很多人(包括我)都不知道配置往哪写。这次它完整回归了,不仅带上了全套插件和 CLI 工具,还保留了 claim/evidence 字段、矛盾聚类这些高级功能。
实际体验上有什么变化? 小龙虾(OpenClaw)的“脑子”更清楚了。它现在能存结构化知识,检索时会按新鲜度排序,还能自动揪出内容里的逻辑矛盾。对于需要长时间跑任务或者跨会话保持上下文的场景,这绝对是刚需。
另外,上个版本的“做梦”机制也优化了。现在它会把脱敏后的会话记录扔进“梦境语料库”,按天建索引。这就好比它晚上睡觉能“消化”白天的经历,让记忆更有连续性。
2. 新增独立推理入口:openclaw infer
这次新增了一个 openclaw infer ... 命令,我觉得 CLI 用户会很喜欢。
以前想跑个单次的模型调用、图片生成或者向量化任务,要么得走完整的 Agent 流程(太重了),要么得自己写脚本。现在直接用 infer 命令就行,统一了文本推理、媒体生成、网页抓取和向量嵌入。调试和跑批量脚本的时候,效率高了不少。
3. 媒体生成与 Webhook:更稳、更开放
- 媒体生成(Media Generation): 现在默认开启了“跨供应商自动容错”。简单说,如果当前供应商挂了或认证失败,它会自动切到下一个,而且会尽量保留你设定的参数(比如尺寸、比例),甚至支持了 Video-to-Video 模式。
- Webhook 插件: 终于打通了外部调用。每个路由有独立密钥验证,外部系统(比如 n8n、Zapier 或者你自己的后端)只要 POST 一下,就能驱动 OpenClaw 的任务流。这对想把 AI 能力集成到现有业务系统里的朋友来说,扩展性拉满了。
4. 模型支持:新面孔与新特性
- Gemma 4:Google 的正式支持来了,推理功能(reasoning)也进来了,而且保留了关闭“思考”的选项。
- Mistral Small 4:现在支持调节
reasoning_effort,也就是你可以手动调教它的推理强度。 - Ollama 视觉能力:现在会自动检测模型是否支持图片输入,支持就自动开启图片附件,不用再手动去配了。
5. 安全加固(必须升级的理由)
这次安全修复下了狠功夫,一口气修了 6 个关键点,特别是针对对外暴露部署的环境:
- 防注入: 运行 exec 工具时,会过滤掉 Java、Rust、Git 等敏感环境变量,防止被带偏到攻击者控制的路径。
- 防越权: 飞书文件上传收紧了,不能再读工作区外的本地文件。
- 防泄露: 重定向时默认丢弃请求体和 Token,防止泄露。
- 防 SSRF: 浏览器端的私有网络封锁更严格了。
- 插件校验: 下载的插件包必须过 SHA-256 校验,不然直接拒装。
6. 个人实测感受与“云端挂机”新思路
虽然功能很实用,但升级过程不算完美。我花了 20 分钟才更新完,更新后遇到了和昨天一样的“缺失 Model”报错,最后还是按老办法修复的。
性能与部署的碎碎念: 说实话,跑这种大模型任务,本地设备压力真的很大。我的主力机风扇转得像直升机,电量也是肉眼可见地掉。最近为了跑这种长时任务,我换了个思路,直接在**蜂巢云手机**上部署环境。
这玩意儿其实就是云端的一台虚拟安卓机,但我发现它跑这类任务简直有奇效:
- 彻底解放本地设备:OpenClaw 这种任务有时候一跑就是好几个小时,放在本地手机或电脑上,根本没法干别的事。丢到蜂巢云手机里,它就是 7x24 小时在线,我这边关了屏幕去睡觉,它还在云端默默跑数据,第二天起来直接收结果,手机一点都不发烫。
- 多开与隔离:有时候为了测试不同模型的并发效果,我需要开好几个实例。本地开虚拟机太卡,但蜂巢云手机支持无限多开,而且每台设备都是独立的沙箱环境,互不干扰,还能通过群控功能一键下发指令,效率比本地高多了。
- 性价比:比起专门买台高配服务器或者一直开着高配电脑,租个云手机按需付费确实划算不少,特别是对于我们要长期挂机跑脚本的朋友来说,简直是“物理外挂”。
总结一下: OpenClaw v2026.4.7 是一个“润物细无声”但非常必要的版本。如果你在用 OpenClaw,建议升一下,尤其是为了那个修好的定时任务 Bug 和安全补丁。当然,如果你也不想让本地设备“燃烧”,不妨试试把它扔到云端跑跑看。