面向Agent的长期记忆系统LycheeMem,让OpenClaw 的 Token 消耗直降 71%!

0 阅读5分钟

面向Agent的长期记忆系统 LycheeMem ,让OpenClaw 的 Token 消耗直降 71%!

项目 介绍

随着 OpenClaw 等Agent 框架快速发展,大模型正逐步摆脱单一对话工具的局限,迈向自主执行复杂任务、深度参与真实工作流的实用阶段。但当 Agent 真正进入复杂任务与真实工作流时,一个基础性短板也迅速暴露出来:缺乏稳定、准确且低成本的长期记忆能力。当前大多数 Agent 记忆方案,要么依赖简单的上下文堆叠,要么停留在粗粒度的向量检索,要么以高昂成本换取有限精度,始终难以同时解决“记不住、找不准、用不对、成本高”的核心痛点。

近期开源的 LycheeMem系统,正尝试把 Agent 长期记忆这件事,真正做成可落地、可扩展、可控成本的基础设施。作为一款面向 Agent 的长期记忆框架,LycheeMem 以高效对话记忆为起点,通过结构化组织、轻量化固化与自适应检索,为 Agent 构建稳定、实用、可扩展的记忆底座,进一步支撑其在复杂场景中的自主决策与任务执行能力。

PinchBench 测评中,接入 LycheeMem 的 OpenClaw 插件后,相较 OpenClaw 原生记忆方案,整体评分提升约 6% ,Token 消耗下降约 71.3% ,总使用成本降低约 54.8% 。换句话说,每投入 1 元 Embedding 成本,最高可节省约 54.8 元 LLM 成本,ROI 达 5480% 。这不仅验证了 LycheeMem 在效果与效率上的双重优势,也进一步说明,长期记忆正在成为 Agent 从“能用”走向“好用”、从“演示”走向“落地”的关键基础设施。

LycheeMem 现已可通过 MCP 支持各类客户端与 Agent 接入,作为统一记忆服务让不同 LLM 应用之间共享用户记忆。用户在切换不同 AI 助手、Agent 或工作流工具时,无需反复重复自己的偏好、习惯与历史背景,各应用在解决问题时也能复用已有经验。

核心能力

LycheeMem 的核心亮点,在于它真正按照人类使用记忆的方式组织 Agent 所需的信息,围绕“当前在做什么”“过去发生了什么”“以后该怎么做”建立起完整闭环。

  • 3 层记忆架构:系统将记忆划分为工作记忆、语义记忆和程序记忆。工作记忆负责管理当前活跃对话与上下文,语义记忆负责存储事实、偏好、约束、事件等长期知识,程序记忆则沉淀可复用技能与工作流经验。
  • 7 类语义记忆编码:LycheeMem 将长期知识拆分为事实、偏好、事件、约束、流程、失败模式、工具能力 7 类记录,并为每条记录附加行动导向的结构化元数据,让记忆不仅可存,更能可用。
  • 层级记忆树融合机制:系统会自动将多个相关原子记忆融合为更高密度的复合记忆,形成可逐层展开的层级记忆树。这样既能保留细节,也能在检索时优先返回覆盖更广、密度更高的信息,减少上下文碎片。
  • 4 重面向行动的检索机制:LycheeMem 的检索不只看 query,而是结合用户请求、最近上下文和当前行动状态,先生成搜索计划,再同时启动全文、向量、标签、时间多条召回通道,真正做到按任务找记忆。
  • 7 种多维度评分与压缩注入:召回后的候选记忆会综合语义相关度、行动效用、参数补全、时间匹配、新近性、证据密度、Token 成本等因素统一打分,优先选出最值得注入上下文的高价值记忆。
  • 程序记忆技能库:除了记得发生过什么,LycheeMem 还强调记得怎么做。系统可将成功工作流沉淀为技能条目,并通过 HyDE 等策略完成更适合行动任务的检索,直接指导最终回答或执行。
  • 5 种Agentic推理能力:从工作记忆管理、搜索协调、记忆合成,到核心推理与后台异步固化,LycheeMem 构建了完整的 Agent 记忆工作流,让长期记忆真正参与每一次决策,而不是停留在静态存储。

PinchBench 结果

作为首个专门评测 OpenClaw Agent 真实任务执行能力的 benchmark,PinchBench 已覆盖 500+ 模型,并累计完成数千次评测运行。接入 LycheeMem 后,OpenClaw 的分数从 43.22% 提升到 48.98% ,提升约 6% ;Token 消耗从 20.9M 降至 6.0M,下降约 71.3% ;总成本从 15.55 元降至 7.03 元,节省约 54.8% 。这意味着LycheeMem 不只是记忆更强,而是在更强记忆的同时,把成本真正打下来了。

使用方式

LycheeMem 已支持多种接入方式,既适合个人开发者快速体验,也适合团队接入现有 Agent 系统。

  • 支持本地启动 API 服务,开箱即可运行。
  • 提供前端 Demo,可实时查看语义记忆树、技能库和工作记忆状态。
  • 提供原生 OpenClaw 插件,让 OpenClaw 会话快速获得持久化长期记忆能力。
  • 支持 MCP 接入,可作为标准化记忆服务对接更多 Agent 系统。
  • 支持离线运行与本地数据存储,更适合对安全性和可控性要求较高的场景。

结语

记忆不是 Agent 的附加能力,而是它真正进入复杂任务与真实工作流的底层基础设施。没有长期记忆,Agent 就只能反复依赖短期上下文;没有结构化记忆,Agent 就很难稳定复用经验;没有低成本记忆,Agent 就难以真正规模化落地。LycheeMem 的价值,就在于它把 Agent 的长期记忆,从概念探索推进到了直接可用。

对于个人开发者来说,LycheeMem 是给 AI 助手装上一套“记得住、找得准、用得上”的长期记忆系统;对于企业团队来说,它则是一套更低成本、更可控、更适合复杂工作流的 Agent 记忆基础设施。如果你也在关注 Agent 的下一步落地,LycheeMem 值得一试 !