一行命令|MemOS OpenClaw 本地插件发布,团队记忆、Skill、历史记忆导入全都有!

21 阅读11分钟

过去一段时间,随着 OpenClaw 的爆火,社区里也掀起了一场关于“记忆”的猛烈讨论。

有人在 X 上分享:用 OpenClaw 搭了 4 个 Agent 协作团队——Milo 负责战略,Josh 管业务,Angela 做营销,Bob 写代码。但每个 Agent 都要重复解释项目背景,信息传递靠手动复制粘贴。

也有开发者说:“OpenClaw 能做的事情太多了——清理 1 万封邮件、审查 122 个 PPT、自动发布 npm 包。但用久了会发现,它不会复用经验,每次都得重头再来,同样的坑还要踩第二遍。”

MemOS OpenClaw 插件:本地记忆,零数据上传

今天,MemOS OpenClaw 插件​本地部署版本正式发布​。

一行命令即可安装,你的 OpenClaw 将从此拥有​永久记忆​。

100% 本地运行,零数据上传​​。

在本次发布本地版本之前,我们已经推出过基于 MemOS Cloud 云服务的 MemOS Cloud OpenClaw 插件。该插件通过 MemOS 的云端记忆服务,为 OpenClaw 提供跨设备、跨实例的长期记忆能力,适合团队协作或多环境部署。

链接:memos-claw.openmem.net/

而本次发布的​本地版 MemOS OpenClaw 插件​,所有数据都存储在用户本地,支持离线运行与完全的数据自主控制,适合对隐私、安全或本地化运行有更高要求的开发者。​两个版本均已全开源​,开发者可根据需求选择最合适的方案。

链接:github.com/MemTensor/M…

哪个版本更适合我

简单来说,核心差异在于:数据放哪里,以及是否需要跨设备同步。

选择 MemOS Cloud 云服务版,如果你:

  • 希望在团队或多 Agent 场景下支持​高并发记忆读写​,确保稳定响应与一致体验
  • 关注​检索效率与低时延响应​,让 Agent 在调用记忆时依然保持流畅交互
  • 不希望自行维护本地存储或基础设施,希望​零运维、开箱即用​,专注于业务与应用构建

MemOS Cloud 通过云端记忆服务,将 高并发处理、低延迟检索与统一记忆管理结合起来,让多实例、多 Agent 的协作更加稳定高效。

选本地版(本次发布),如果你:

  • 对隐私和数据安全有较高要求,代码、密钥、内部架构不希望经过任何外部服务
  • 需要完全离线运行,或部署在无公网访问的内网环境
  • 希望对记忆数据有完整的自主控制权,随时可以备份、迁移或删除

MemOS:不只是"存聊天记录"

MemOS OpenClaw 插件不是简单地把对话存到本地文件。它是一套完整的记忆操作系统,包含六大核心能力。

1. 全量记忆写入

每次对话都会自动转化为结构化记忆,系统通过语义分块、去重和智能合并,让 AI 的记忆持续整理与进化,而不是无限堆积。

不丢失任何关键信息,也不重复存储。你和 AI 的每次对话,都会被完整记录下来。

举个栗子:

有人让 OpenClaw 帮忙部署应用,涉及 Docker Compose 配置、环境变量设置、Nginx 反向代理。如果只是简单存文本,这些关键信息会被切碎。 MemOS 的语义分块确保代码块、配置文件、命令序列都完整保存。

2. 混合智能检索

每次只注入真正有用的记忆,不会把无关内容灌进上下文。再来一个例子:

当你问「Docker 配置」,它不只是找包含「Docker」这个词的对话,还会找「容器部署」、「镜像打包」这些语义相关的内容。而且最近的对话会优先返回,过时的信息自动降权。

3. 任务自动总结

还有一个栗子:

你和 OpenClaw 花了 2 小时调试一个复杂的部署问题。对话可能有几十轮:

你:部署到 Vercel 报错了
Agent:看下报错信息
你:[粘贴报错]
Agent:需要修改 vercel.json
你:怎么改?
Agent:[给出配置]
你:还是不行
Agent:试试这个方案...
(继续 20 轮对话)
你:成功了!

MemOS 会自动把这 2 小时的对话总结成:

任务:部署 Next.js 应用到 Vercel

  • 目标: 成功部署并解决 SSR 错误
  • 关键步骤:
    • 配置 vercel.jsonrewrites 规则
    • 修改 build 脚本处理环境变量
    • 调整 getServerSideProps 的错误处理
  • 结果: 成功部署,访问正常
  • 关键细节:
    • 需要在 vercel.json 中添加:{"rewrites": [...]}
    • 环境变量要在 Vercel Dashboard 设置,不能只在 .env
    • SSR 错误是因为客户端代码在服务端执行

下次遇到类似问题,直接调出这个任务总结,10 秒钟搞定。

4. 技能自动进化

完成任务后,MemOS 会自动评估:这个任务值得沉淀为技能吗?如果值得,就生成 SKILL.md + 脚本 + 验证检查。

最后一个栗子:

社区有人用 OpenClaw 完成各种自动化任务:清理邮件、审查 PPT、发布 npm 包、管理 Jira、优化 Google Ads。

比如你第一次配置 Nginx 反向代理,花了 30 分钟,而 MemOS 会自动生成「Nginx 反向代理配置」技能。下次遇到类似任务,OpenClaw 直接调用技能,1 分钟搞定。

更厉害的是:如果你后来发现更好的方法,MemOS 会自动升级已有技能。你的 Agent 会随着使用越来越聪明。

5. OpenClaw 原生记忆导入:过往的记忆,不会丢失

换用 MemOS 之前,很多人的第一个顾虑是:在 OpenClaw 里积累的那些对话记忆,会不会直接丢掉?

MemOS 支持从 OpenClaw 原生记忆无缝一键迁移,智能去重(向量相似度 + LLM 双重判断)、断点续传、实时进度,已处理的自动跳过。你和 AI 过往积累的每一段对话,一条不丢。

导入完成后,还可以选择自动生成任务摘要和技能进化,把过去的经验直接转化为可复用的智慧。

所有通过迁移导入的记忆都带有 🦐 标识,在 Viewer 中一眼就能和新对话生成的记忆区分开。

在 Memory Viewer 的 Import 页面,即可一键操作。

6. 团队知识中枢:一个人踩过的坑,全团队不再重复踩

一个人踩过的坑,全团队不再重复踩。MemOS 支持部署团队知识中枢(Hub),各成员的 AI 助手自动发现、按需同步。记忆按分组隔离,技能跨团队流转——前端积累的调试经验,后端也能一键获取。数据始终留在团队内部,零外部上传。

多 Agent 协作,一直有个绕不开的问题。

Milo 负责战略,Josh 管业务,Angela 做营销,Bob 写代码。如果不能共享记忆,每个 Agent 都要重复解释一遍项目背景。但如果全局共享记忆,每个 Agent 很难区分哪些是 Bob 的记忆,哪些是 Angela 的,更别说保持长期人设和行为一致。

MemOS 为此设计了团队知识中枢(Hub)。

真正让 Agent 做到群体进化,从此,每只龙虾的成长,汇聚为整个虾池的进化。

各成员的 AI 助手自动连接。记忆和技能按分组权限智能同步——一个人解决的问题,自动成为全组共享的能力。数据始终留在团队内部,隐私无忧。

更重要的是,数据始终留在团队内部,零外部上传。集体进化,终于不再是一句空话。

未共享的记忆始终留在本地,Hub 仅存储主动共享的内容。JWT 认证 + 分组权限 + 管理员审批,数据不出团队内部网络。

工作原理:四条智能管线

从对话到记忆,从记忆到技能,形成持续学习闭环。

我们希望 AI 的能力不只停留在一次对话,而是能够在真实使用中不断积累经验、持续进化。因此,我们构建了一套从 对话 → 记忆 → 技能 → 再反哺对话 的智能闭环。

在每一轮交互中,系统会自动捕获对话内容,并通过语义分块、SHA-256 内容去重与 LLM 摘要,将关键信息整理为结构化记忆,完成向量化后存储到本地数据库(SQLite + FTS5 + Vector)。当多个记忆围绕同一目标或问题逐渐聚集时,系统会自动识别任务边界,将这些信息整理为包含目标、步骤与结果的任务经验。

进一步,系统还会对已完成任务进行规则过滤与 LLM 评估,将高质量经验抽象为可复用的技能模块,或对已有技能进行升级。

在新的对话或任务中,系统会通过 FTS5 + Vector 双通道检索、RRF 融合与 MMR 重排 自动召回相关记忆与技能,并注入到上下文中,帮助模型基于过往经验进行更准确的判断与执行。

通过这套工作流程,MemOS OpenClaw 插件将零散的对话逐步沉淀为结构化记忆,再进一步演化为可复用技能,让 AI 在实际使用中不断积累能力,真正实现 ​**“越用越强”的持续学习系统**​。

Memory Viewer 可视化面板

6 大管理页面一目了然:

📝 Memories​:时间线浏览、CRUD 操作、语义搜索。

📋 Tasks​:任务列表、状态筛选、结构化总结。

🧬 Skills​:技能管理、版本历史、一键下载。

📊 Analytics​:读写统计、活跃度图表、记忆分布。

📜 Logs​:工具调用日志、输入输出、耗时统计。

⚙️ Settings​:在线配置、模型切换、参数调优。

安全防护: 密码保护 + Session Cookie,仅绑定 127.0.0.1 本地访问,外部无法连入。

为什么选 MemOS?

效果验证

我们基于 LoCoMo 数据集实验与真实开发任务,对引入 MemOS 前后的 OpenClaw 做了系统性对比。

效果层面,Overall LLM Judge Score 从 39.61 提升至 46.75,绝对提升 7.14 个百分点,相对提升约 18%。平均交互轮次从 116 轮降至 54 轮,减少 53%,重复提问和返工明显变少,完成同样任务的速度提升约 2.15 倍。

成本层面,单次任务的 Input Token 从 15,009 降至 10,390,减少 30.8%。总 Token 消耗从 2,207,643 降至 1,124,445,节省近 49%,整体推理开销接近减半。

与社区主流方案相比

与 OpenClaw 内置记忆及社区主流方案对比,安装 MemOS 后,AI 不再只是“记住对话”,而是开始​真正积累经验并持续进化​。

相比 OpenClaw 内置记忆以及社区其他方案,MemOS 不需要额外部署数据库或复杂基础设施,一条命令即可安装使用,并且是目前少数同时具备任务自动总结、技能进化、多 Agent 协同、团队知识中枢和本地可视化管理的一体化记忆系统。

对比方案中,ClawVault 和 Recall 均不支持上述任何一项,Mem0 自托管需要外部编排才能实现有限的多智能体协同,且没有本地面板。此外,MemOS 零外部依赖,npm install 即用,无需部署 Qdrant、PostgreSQL 等任何额外基础设施。

三步开始,一分钟上手

1. 安装插件

从 npm 安装后启动网关即可。

openclaw plugins install @memtensor/memos-lite-openclaw-plugin
openclaw gateway start

2. 配置 openclaw.json

网页面板:http://127.0.0.1:18799 登录后点「设置」。

或编辑 openclaw.json

{
  "plugins": {
    "slots": { "memory": "memos-lite" },
    "entries": {
      "memos-lite": {
        "config": {
          "embedding": {
            "provider": "openai_compatible",
            "model": "bge-m3",
            "endpoint": "https://your-api-endpoint/v1",
            "apiKey": "sk-••••••"
          },
          "summarizer": {
            "provider": "openai_compatible",
            "model": "gpt-4o-mini",
            "endpoint": "https://your-api-endpoint/v1",
            "apiKey": "sk-••••••"
          },
          "skillEvolution": {
            "summarizer": {
              "provider": "openai_compatible",
              "model": "claude-4.6-opus",
              "endpoint": "https://your-api-endpoint/v1",
              "apiKey": "sk-••••••"
            }
          }
        }
      }
    }
  }
}

3. 启动 Gateway

openclaw gateway start

启动后,打开 http://127.0.0.1:18799 即可访问 Memory Viewer。

写在最后

Agent 基础设施正在快速向工业级标准靠拢,但始终有一件事,没有被认真解决:​经验的积累​。

每个开发者每天都在和 AI 产生大量有价值的对话。调试经验、技术方案、踩过的坑,全部随着对话窗口的关闭蒸发。

MemOS 做的,正是把这件事变成现实——让 AI 从「接单外包」变成一个有完整记忆、持续成长的搭档。

当每个开发者都能把自己的经验资产系统化沉淀,一个人能管理的 Agent 流程有多少,产出就相当于多少人的团队。

未来的竞争,拼的可能不只是谁用了更强的模型,而是谁积累的经验资产更扎实、更可复用。

GitHub 项目地址:github.com/MemTensor/M…

npm 主页:npmjs.com/package/@me…

MemOS 官网:memos.openmem.net