过去一段时间,随着 OpenClaw 的爆火,社区里也掀起了一场关于“记忆”的猛烈讨论。
有人在 X 上分享:用 OpenClaw 搭了 4 个 Agent 协作团队——Milo 负责战略,Josh 管业务,Angela 做营销,Bob 写代码。但每个 Agent 都要重复解释项目背景,信息传递靠手动复制粘贴。
也有开发者说:“OpenClaw 能做的事情太多了——清理 1 万封邮件、审查 122 个 PPT、自动发布 npm 包。但用久了会发现,它不会复用经验,每次都得重头再来,同样的坑还要踩第二遍。”
MemOS OpenClaw 插件:本地记忆,零数据上传
今天,MemOS OpenClaw 插件本地部署版本正式发布。
一行命令即可安装,你的 OpenClaw 将从此拥有永久记忆。
100% 本地运行,零数据上传。
在本次发布本地版本之前,我们已经推出过基于 MemOS Cloud 云服务的 MemOS Cloud OpenClaw 插件。该插件通过 MemOS 的云端记忆服务,为 OpenClaw 提供跨设备、跨实例的长期记忆能力,适合团队协作或多环境部署。
而本次发布的本地版 MemOS OpenClaw 插件,所有数据都存储在用户本地,支持离线运行与完全的数据自主控制,适合对隐私、安全或本地化运行有更高要求的开发者。两个版本均已全开源,开发者可根据需求选择最合适的方案。
哪个版本更适合我
简单来说,核心差异在于:数据放哪里,以及是否需要跨设备同步。
选择 MemOS Cloud 云服务版,如果你:
- 希望在团队或多 Agent 场景下支持高并发记忆读写,确保稳定响应与一致体验
- 关注检索效率与低时延响应,让 Agent 在调用记忆时依然保持流畅交互
- 不希望自行维护本地存储或基础设施,希望零运维、开箱即用,专注于业务与应用构建
MemOS Cloud 通过云端记忆服务,将 高并发处理、低延迟检索与统一记忆管理结合起来,让多实例、多 Agent 的协作更加稳定高效。
选本地版(本次发布),如果你:
- 对隐私和数据安全有较高要求,代码、密钥、内部架构不希望经过任何外部服务
- 需要完全离线运行,或部署在无公网访问的内网环境
- 希望对记忆数据有完整的自主控制权,随时可以备份、迁移或删除
MemOS:不只是"存聊天记录"
MemOS OpenClaw 插件不是简单地把对话存到本地文件。它是一套完整的记忆操作系统,包含六大核心能力。
1. 全量记忆写入
每次对话都会自动转化为结构化记忆,系统通过语义分块、去重和智能合并,让 AI 的记忆持续整理与进化,而不是无限堆积。
不丢失任何关键信息,也不重复存储。你和 AI 的每次对话,都会被完整记录下来。
举个栗子:
有人让 OpenClaw 帮忙部署应用,涉及 Docker Compose 配置、环境变量设置、Nginx 反向代理。如果只是简单存文本,这些关键信息会被切碎。 MemOS 的语义分块确保代码块、配置文件、命令序列都完整保存。
2. 混合智能检索
每次只注入真正有用的记忆,不会把无关内容灌进上下文。再来一个例子:
当你问「Docker 配置」,它不只是找包含「Docker」这个词的对话,还会找「容器部署」、「镜像打包」这些语义相关的内容。而且最近的对话会优先返回,过时的信息自动降权。
3. 任务自动总结
还有一个栗子:
你和 OpenClaw 花了 2 小时调试一个复杂的部署问题。对话可能有几十轮:
你:部署到 Vercel 报错了
Agent:看下报错信息
你:[粘贴报错]
Agent:需要修改 vercel.json
你:怎么改?
Agent:[给出配置]
你:还是不行
Agent:试试这个方案...
(继续 20 轮对话)
你:成功了!
MemOS 会自动把这 2 小时的对话总结成:
任务:部署 Next.js 应用到 Vercel
- 目标: 成功部署并解决 SSR 错误
- 关键步骤:
- 配置
vercel.json的rewrites规则 - 修改
build脚本处理环境变量 - 调整
getServerSideProps的错误处理
- 配置
- 结果: 成功部署,访问正常
- 关键细节:
- 需要在
vercel.json中添加:{"rewrites": [...]} - 环境变量要在 Vercel Dashboard 设置,不能只在
.env - SSR 错误是因为客户端代码在服务端执行
- 需要在
下次遇到类似问题,直接调出这个任务总结,10 秒钟搞定。
4. 技能自动进化
完成任务后,MemOS 会自动评估:这个任务值得沉淀为技能吗?如果值得,就生成 SKILL.md + 脚本 + 验证检查。
最后一个栗子:
社区有人用 OpenClaw 完成各种自动化任务:清理邮件、审查 PPT、发布 npm 包、管理 Jira、优化 Google Ads。
比如你第一次配置 Nginx 反向代理,花了 30 分钟,而 MemOS 会自动生成「Nginx 反向代理配置」技能。下次遇到类似任务,OpenClaw 直接调用技能,1 分钟搞定。
更厉害的是:如果你后来发现更好的方法,MemOS 会自动升级已有技能。你的 Agent 会随着使用越来越聪明。
5. OpenClaw 原生记忆导入:过往的记忆,不会丢失
换用 MemOS 之前,很多人的第一个顾虑是:在 OpenClaw 里积累的那些对话记忆,会不会直接丢掉?
MemOS 支持从 OpenClaw 原生记忆无缝一键迁移,智能去重(向量相似度 + LLM 双重判断)、断点续传、实时进度,已处理的自动跳过。你和 AI 过往积累的每一段对话,一条不丢。
导入完成后,还可以选择自动生成任务摘要和技能进化,把过去的经验直接转化为可复用的智慧。
所有通过迁移导入的记忆都带有 🦐 标识,在 Viewer 中一眼就能和新对话生成的记忆区分开。
在 Memory Viewer 的 Import 页面,即可一键操作。
6. 团队知识中枢:一个人踩过的坑,全团队不再重复踩
一个人踩过的坑,全团队不再重复踩。MemOS 支持部署团队知识中枢(Hub),各成员的 AI 助手自动发现、按需同步。记忆按分组隔离,技能跨团队流转——前端积累的调试经验,后端也能一键获取。数据始终留在团队内部,零外部上传。
多 Agent 协作,一直有个绕不开的问题。
Milo 负责战略,Josh 管业务,Angela 做营销,Bob 写代码。如果不能共享记忆,每个 Agent 都要重复解释一遍项目背景。但如果全局共享记忆,每个 Agent 很难区分哪些是 Bob 的记忆,哪些是 Angela 的,更别说保持长期人设和行为一致。
MemOS 为此设计了团队知识中枢(Hub)。
真正让 Agent 做到群体进化,从此,每只龙虾的成长,汇聚为整个虾池的进化。
各成员的 AI 助手自动连接。记忆和技能按分组权限智能同步——一个人解决的问题,自动成为全组共享的能力。数据始终留在团队内部,隐私无忧。
更重要的是,数据始终留在团队内部,零外部上传。集体进化,终于不再是一句空话。
未共享的记忆始终留在本地,Hub 仅存储主动共享的内容。JWT 认证 + 分组权限 + 管理员审批,数据不出团队内部网络。
工作原理:四条智能管线
从对话到记忆,从记忆到技能,形成持续学习闭环。
我们希望 AI 的能力不只停留在一次对话,而是能够在真实使用中不断积累经验、持续进化。因此,我们构建了一套从 对话 → 记忆 → 技能 → 再反哺对话 的智能闭环。
在每一轮交互中,系统会自动捕获对话内容,并通过语义分块、SHA-256 内容去重与 LLM 摘要,将关键信息整理为结构化记忆,完成向量化后存储到本地数据库(SQLite + FTS5 + Vector)。当多个记忆围绕同一目标或问题逐渐聚集时,系统会自动识别任务边界,将这些信息整理为包含目标、步骤与结果的任务经验。
进一步,系统还会对已完成任务进行规则过滤与 LLM 评估,将高质量经验抽象为可复用的技能模块,或对已有技能进行升级。
在新的对话或任务中,系统会通过 FTS5 + Vector 双通道检索、RRF 融合与 MMR 重排 自动召回相关记忆与技能,并注入到上下文中,帮助模型基于过往经验进行更准确的判断与执行。
通过这套工作流程,MemOS OpenClaw 插件将零散的对话逐步沉淀为结构化记忆,再进一步演化为可复用技能,让 AI 在实际使用中不断积累能力,真正实现 **“越用越强”的持续学习系统**。
Memory Viewer 可视化面板
6 大管理页面一目了然:
📝 Memories:时间线浏览、CRUD 操作、语义搜索。
📋 Tasks:任务列表、状态筛选、结构化总结。
🧬 Skills:技能管理、版本历史、一键下载。
📊 Analytics:读写统计、活跃度图表、记忆分布。
📜 Logs:工具调用日志、输入输出、耗时统计。
⚙️ Settings:在线配置、模型切换、参数调优。
安全防护: 密码保护 + Session Cookie,仅绑定 127.0.0.1 本地访问,外部无法连入。
为什么选 MemOS?
效果验证
我们基于 LoCoMo 数据集实验与真实开发任务,对引入 MemOS 前后的 OpenClaw 做了系统性对比。
效果层面,Overall LLM Judge Score 从 39.61 提升至 46.75,绝对提升 7.14 个百分点,相对提升约 18%。平均交互轮次从 116 轮降至 54 轮,减少 53%,重复提问和返工明显变少,完成同样任务的速度提升约 2.15 倍。
成本层面,单次任务的 Input Token 从 15,009 降至 10,390,减少 30.8%。总 Token 消耗从 2,207,643 降至 1,124,445,节省近 49%,整体推理开销接近减半。
与社区主流方案相比
与 OpenClaw 内置记忆及社区主流方案对比,安装 MemOS 后,AI 不再只是“记住对话”,而是开始真正积累经验并持续进化。
相比 OpenClaw 内置记忆以及社区其他方案,MemOS 不需要额外部署数据库或复杂基础设施,一条命令即可安装使用,并且是目前少数同时具备任务自动总结、技能进化、多 Agent 协同、团队知识中枢和本地可视化管理的一体化记忆系统。
对比方案中,ClawVault 和 Recall 均不支持上述任何一项,Mem0 自托管需要外部编排才能实现有限的多智能体协同,且没有本地面板。此外,MemOS 零外部依赖,npm install 即用,无需部署 Qdrant、PostgreSQL 等任何额外基础设施。
三步开始,一分钟上手
1. 安装插件
从 npm 安装后启动网关即可。
openclaw plugins install @memtensor/memos-lite-openclaw-plugin
openclaw gateway start
2. 配置 openclaw.json
网页面板:http://127.0.0.1:18799 登录后点「设置」。
或编辑 openclaw.json。
{
"plugins": {
"slots": { "memory": "memos-lite" },
"entries": {
"memos-lite": {
"config": {
"embedding": {
"provider": "openai_compatible",
"model": "bge-m3",
"endpoint": "https://your-api-endpoint/v1",
"apiKey": "sk-••••••"
},
"summarizer": {
"provider": "openai_compatible",
"model": "gpt-4o-mini",
"endpoint": "https://your-api-endpoint/v1",
"apiKey": "sk-••••••"
},
"skillEvolution": {
"summarizer": {
"provider": "openai_compatible",
"model": "claude-4.6-opus",
"endpoint": "https://your-api-endpoint/v1",
"apiKey": "sk-••••••"
}
}
}
}
}
}
}
3. 启动 Gateway
openclaw gateway start
启动后,打开 http://127.0.0.1:18799 即可访问 Memory Viewer。
写在最后
Agent 基础设施正在快速向工业级标准靠拢,但始终有一件事,没有被认真解决:经验的积累。
每个开发者每天都在和 AI 产生大量有价值的对话。调试经验、技术方案、踩过的坑,全部随着对话窗口的关闭蒸发。
MemOS 做的,正是把这件事变成现实——让 AI 从「接单外包」变成一个有完整记忆、持续成长的搭档。
当每个开发者都能把自己的经验资产系统化沉淀,一个人能管理的 Agent 流程有多少,产出就相当于多少人的团队。
未来的竞争,拼的可能不只是谁用了更强的模型,而是谁积累的经验资产更扎实、更可复用。
GitHub 项目地址:github.com/MemTensor/M…
npm 主页:npmjs.com/package/@me…
MemOS 官网:memos.openmem.net