Milla 很漂亮,不代表 MemPalace 就适合你的 OpenClaw
摘要: 一个好的开源项目 + 一个大明星的名字 = 刷屏 X。但在你把 MemPalace 接进 OpenClaw 之前,先想清楚:你到底在解决什么问题?
事情经过
最近 X 上炸了一个开源项目:MemPalace,作者是米拉·乔沃维奇(Milla Jovovich)——对,就是《生化危机》里的爱丽丝。
她的 README 说得很实在:
我用 ChatGPT/Claude 每次对话都要重新介绍自己,太烦了。 不如把所有对话都存下来,搜索的时候自己找。 让用户决定什么重要,不要让 AI 替我过滤。
然后 GitHub ⭐ 暴涨,各种 Twitter/Mastodon/Reddit 技术圈二创满天飞,"哇 AI 记忆系统终于被好莱坞女演员解决了" 这种标题到处都是。
帅气。热闹。
但是——
你真的需要它吗?
MemPalace 是什么
先不被名气带跑,老老实实看技术。
MemPalace 的核心设计:
用户输入 → 原始存储 → 本地索引 → 检索接口
没有复杂的向量数据库(至少默认不用),没有 AI 自动总结,没有智能压缩——就是把对话/笔记原样写进去,原样搜出来。
配套提供了一个「记忆宫殿」的文件夹结构,让你按时间、主题、项目等方式组织内容。同时支持 MCP 协议,理论上可以接入支持 MCP 的任意 Agent 框架。
MIT 协议,本地优先,不依赖云服务。
设计哲学上,这是对「AI 失忆症」的一个务实回应。
但有一个注意点:项目早期 README 里有一些关于压缩率和 benchmark 的说法,后来被原作者承认是夸大的。热度起来之后,技术标榜往往会超出实际能力——这不是 MemPalace 独有的问题,是开源传播规律。
问题的根:你在给谁装记忆?
MemPalace 的出发点是无状态 AI:
- ChatGPT:每次新对话,从零开始
- Claude(无 Projects):同上
- 各种在线 API 直连:没有持久化层
对这类场景,MemPalace 的价值是真实的:你额外插上一个"外部大脑",每次对话带进去,AI 的上下文立刻丰富了。
但 OpenClaw 不是这种架构。
OpenClaw 的记忆是 built-in,不是 bolt-on:
| 特性 | ChatGPT/Claude API | OpenClaw |
|---|---|---|
| 跨 session 记忆 | ❌ 需要外挂 | ✅ 原生支持 |
| 记忆搜索 | ❌ 需要外挂 | ✅ memory_search 工具 |
| 结构化存储 | ❌ 需要外挂 | ✅ MEMORY.md + memory/*.md |
| Runtime 可访问 | ❌ 需要外挂 | ✅ 随时 memory_get |
| 用户可控 | 视工具而定 | ✅ 纯 Markdown,自己维护 |
这不是说 OpenClaw 更高级,而是说:它们解决的是同一个问题,只是在不同位置解决。
那么叠加会怎样?
假设你在一个已经有完整记忆体系的 OpenClaw 环境里再加上 MemPalace:
理论上: 更多记忆来源,Agent 更聪明。
实际上:
- 两套记忆系统,优先级混乱。 当
memory_search和 MemPalace 检索结果冲突时,Agent 该信哪个? - 写入分散,维护负担翻倍。 一条重要信息,要写到
memory/还是 MemPalace?还是两边都写? - 上下文窗口消耗加倍。 两套系统的检索结果都带进 prompt,token 成本上去了,噪声也上去了。
- MCP 接口额外维护成本。 MemPalace 的 MCP Server 需要独立运行,是一个额外的进程,一个额外的故障点。
这不是理论上的坏处,是工程现实。
记忆系统不是越多越好,而是越一致越好。
那 MemPalace 到底适合谁?
说清楚它的价值,不是为了贬低,而是为了精准使用。
适合 MemPalace 的场景:
- 主要用 ChatGPT/Claude 直接对话,没有 Agent 框架
- 用各种 AI 工具东拼西凑,没有统一记忆中心
- 想要一个不依赖任何云服务的本地记忆保险箱
- 有开发能力,想自己基于 MCP 搭一套轻量 Agent 记忆层
不太适合 MemPalace 的场景:
- 已经有成熟的 Agent 框架(OpenClaw / LangGraph / AutoGen 等)并且内置了记忆管理
- 记忆数据已经在
MEMORY.md/memory/里积累了几个月 - 不想引入额外的运行时依赖和维护成本
从 MemPalace 可以借鉴什么
批评不是目的,学习才是。
MemPalace 的设计里有几个思路值得借鉴,无论你用不用它:
1. 「用户决定什么重要」原则
OpenClaw 的 MEMORY.md 是手动维护的,这本身就体现了这个哲学。但在实际使用中,我们经常依赖 Agent 自动写入记忆——这时候质量参差不齐。
启发: 定期审查 memory/ 下的文件,手动清理 Agent 写得乱的部分,保持信噪比。
2. 「记忆宫殿」结构思路
MemPalace 用文件夹结构来组织记忆(时间 / 主题 / 项目)。OpenClaw 的 memory/*.md 分主题文件,其实思路类似,但可以更精细。
启发: 考虑给 memory/ 下的文件加前缀标签,比如 project-xxx.md、insight-xxx.md、daily-xxx.md,让检索更精准。
3. MCP 作为记忆接口的标准化
MCP 协议正在成为 Agent 生态的接口标准,MemPalace 早早支持是有远见的。
启发: 如果你在维护多个 Agent(OpenClaw + 其他工具并行),可以考虑把 OpenClaw 的记忆文件暴露成 MCP 资源节点,实现跨工具共享。
结语
Milla 很漂亮,MemPalace 也真的不错。
但漂亮的演员做了一个好工具,不代表这个工具适合所有人的所有场景。
技术决策的核心问题永远是:你在解决什么问题?你现有的系统有没有已经解决它?
如果你用 ChatGPT 裸奔,MemPalace 值得认真考虑。
如果你已经有一套跑了几个月的 OpenClaw 记忆体系,先问问自己:你的 memory/ 里上次做了多少次手动整理?那里的质量,比接一个新工具更值得投入。
作者:一个不想给 Agent 装两套大脑的 DevOps 老兵