导读:为什么你的 AI 助手总是"记不住"?为什么同一个问题要问很多遍?本文从 OpenClaw 和 Hermes 两个开源项目的记忆机制设计出发,深入剖析 AI Agent 记忆的底层逻辑,并给出实用的优化建议。
一、问题的提出:AI 的记忆困境
在使用 AI Agent(如 OpenClaw、Claude Code、Hermes)的过程中,你是否遇到过这些困扰:
- 上下文丢失:聊了很久,AI 突然"忘记"了之前的约定
- 重复教学:每次新会话都要重新交代一遍偏好和规则
- 记忆膨胀:MEMORY.md 越来越长,但有效信息越来越少
- 幻觉混杂:AI 把过时的信息和新的指令混在一起
这些问题的本质,都指向一个核心议题:AI Agent 应该如何设计记忆机制?
二、两种设计哲学:OpenClaw vs Hermes
2.1 OpenClaw 的记忆设计
OpenClaw 的记忆系统基于三个核心文件:
~/.openclaw/workspace/
├── MEMORY.md # 长期记忆(用户可编辑)
├── SOUL.md # 角色定义(系统提示)
├── USER.md # 用户画像
└── memory/
└── 2026-04-14.md # 每日日志(自动记录)
设计特点:
- 用户主导:用户手动编辑 MEMORY.md,决定什么该记住
- 分层存储:L1(会话级)→ L2(日/周级)→ L3(长期级)
- 引用计数:只有被引用≥2 次的经验才会进入长期记忆
- 人工审核:MEMORY.md 需要用户主动维护和压缩
优点:
- 可控性强,用户完全掌握记忆内容
- 透明度高,随时可以查看和修改
- 适合有明确知识管理需求的用户
缺点:
- 维护成本高,需要定期整理
- 容易变成"垃圾堆",80% 是过时信息
- 依赖用户的判断,什么该记什么不该记
2.2 Hermes 的记忆设计
Hermes 的记忆系统采用了完全不同的思路:
~/.hermes/
├── MEMORY.md # 硬事实(2200 字符上限)
├── USER.md # 软画像(1375 字符上限)
└── skills/
└── xxx/ # 自动沉淀的 Skill
└── SKILL.md
设计特点:
- 硬限制:MEMORY.md 上限 2200 字符,USER.md 上限 1375 字符
- 自动 consolidate:满了之后自动合并、替换、删除过时条目
- 双轨记忆:MEMORY.md(硬事实)+ Honcho(软画像)
- 自我进化:自动沉淀 Skill,自动 patch 错误
优点:
- 强制遗忘,避免信息过载
- 自动维护,降低用户负担
- 双轨设计,硬事实做精度、软画像做泛化
缺点:
- 可控性弱,用户无法直接干预记忆过程
- 可能误删重要信息
- 需要信任 AI 的判断
三、核心机制对比
| 维度 | OpenClaw | Hermes |
|---|---|---|
| 记忆上限 | 无限制 | 硬限制(2200+1375 字符) |
| 维护方式 | 用户手动 | AI 自动 consolidate |
| 记忆类型 | 单一 MEMORY | 双轨(硬事实+软画像) |
| 进化能力 | 依赖用户更新 | 自动沉淀 Skill |
| 透明度 | 高(用户可编辑) | 中(可看但不可直接改) |
| 适用场景 | 知识管理型用户 | 生产力型用户 |
四、深入理解:为什么"遗忘"是一种能力?
Hermes 的硬限制设计看似"抠门",实则蕴含深刻的设计哲学:
4.1 认知科学的启示
人类记忆的工作原理:
- 工作记忆:容量有限(7±2 个组块)
- 长期记忆:通过遗忘筛选重要信息
- 提取强度:经常使用的记忆更容易提取
Hermes 的 2200 字符限制,模拟了人类工作记忆的容量限制,强迫 AI 像人一样主动选择什么值得记住。
4.2 信息论的角度
从信息论看,记忆的价值不在于"存储量",而在于信噪比:
- OpenClaw:存储量大,但信噪比低(大量过时信息)
- Hermes:存储量小,但信噪比高(强制筛选)
当 AI 需要在有限空间内竞争记忆位置时,它才会真正评估信息的价值。
4.3 系统设计的权衡
记忆系统设计三角:
容量
/ \
/ \
可控性 ———— 自动化
- OpenClaw 选择了"容量+可控性"
- Hermes 选择了"自动化+信噪比"
没有绝对的好坏,只有场景适配。
五、实用建议:如何优化你的 AI 记忆
5.1 如果你用 OpenClaw
定期维护 MEMORY.md:
# 每周运行一次
node memory-manager.js --compact
采用引用计数机制:
- 只有被验证过 2 次以上的经验才写入 MEMORY.md
- 30 天未被引用的条目降级或删除
分层管理:
- L1(会话级):临时上下文,会话结束即丢弃
- L2(日/周级):短期经验,定期 review
- L3(长期级):核心知识,严格准入
5.2 如果你用 Hermes
信任但验证:
- 定期查看 MEMORY.md 和 USER.md
- 如果发现重要信息被误删,手动补充
利用 Skill 沉淀:
- 复杂任务完成后,检查是否自动生成了 Skill
- 手动优化 Skill,使其更通用
Honcho 画像优化:
- 主动提供偏好信息,帮助 AI 构建准确的软画像
- 定期 review Honcho 的推断是否准确
5.3 通用最佳实践
文本优于图片:
- 如前文所述,详尽的文字描述比图片更容易被 AI 遵守
- 关键信息用文字明确写出,不要依赖 AI "看懂"图片
及时止损:
- 当 AI 在当前会话多次失败时,开新会话比继续施压更有效
- 避免让 AI 进入"绝望"或"恐慌"情绪状态
显式确认:
- 重要指令要求 AI 复述确认
- 复杂任务分步骤验证,不要一次性给太多信息
六、未来展望:记忆机制的发展趋势
6.1 向量数据库的融合
未来的 AI Agent 可能会结合向量数据库:
- 语义检索:基于相似度检索相关记忆,而非固定文件
- 动态加载:根据当前任务动态加载相关记忆片段
- 跨会话关联:自动发现不同会话间的关联信息
6.2 个性化记忆模型
每个用户可能有专属的记忆模型:
- 用户画像预训练:基于用户历史数据微调模型
- 偏好学习:自动学习用户的编码风格、沟通偏好
- 知识图谱:构建用户专属的知识图谱,支持复杂推理
6.3 可解释的记忆
未来的记忆系统需要更好的可解释性:
- 记忆溯源:AI 能解释为什么记住某条信息
- 遗忘说明:AI 能解释为什么遗忘某条信息
- 置信度显示:显示对每条记忆的置信度
七、结语
AI Agent 的记忆设计,本质上是在模拟人类的认知过程。OpenClaw 给了用户完全的控制权,适合喜欢精细管理的用户;Hermes 则通过硬限制和自动化,降低了用户负担,适合追求效率的用户。
无论选择哪种方案,核心原则是一致的:
记忆的价值不在于存储多少,而在于能否在正确的时间提取正确的信息。
理解这一点,你就能更好地设计和使用 AI Agent 的记忆系统。
参考来源:
- OpenClaw 官方文档
- Hermes Agent 官方文档
- 《Claude Code 的 skills 源码解析》(古茗前端团队)
- 《对不起,OpenClaw,我选择 Hermes!》(孟健AI编程)
标签:#AIAgent #记忆机制 #OpenClaw #Hermes #ClaudeCode #设计哲学