2026 AI 记忆框架横评:Mem0 / Zep / LangMem / TiMem,我全用了一遍
最近帮几个 AI 项目做技术选型,把目前主流的四个记忆框架都系统测了一遍。写下这篇,希望能帮大家少踩点坑。
为什么需要记忆层?
很多人刚开始做 AI 应用,直接把历史对话塞进 prompt。短期没问题,但很快会遇到三个问题:
- 成本爆炸:1000 轮对话 × 200 tokens = 每次调用 20 万 token
-
- 注意力衰减:模型对长 context 里的早期信息关注度下降,越说越「不在意」前面的内容
-
- 跨会话失效:用户第二天来,上下文全没了
专门的记忆层就是用来解决这三个问题的。
四大框架一览
| 框架 | 架构类型 | LoCoMo 基准 | 核心特点 |
|---|---|---|---|
| Mem0 | 语义向量检索 | ~64% | 轻量、接入极简、生态成熟 |
| Zep | 情节记忆图谱 | 78.94%* | 时序感知好,社区活跃 |
| LangMem | 工作记忆 + 长期存储 | 78.05%* | LangChain 生态原生 |
| TiMem | 五层时序记忆树(TMT) | 75.30% | 时序推理强,token 最省 |
*Zep / LangMem 数据来自第三方对比评测,TiMem 数据来自官方论文(arXiv:2601.02845)
LoCoMo 是目前最主流的长对话记忆评测基准,包含 81 个跨会话 QA 对,覆盖单跳、时序、多跳等问题类型。
Mem0:简单好用,但有天花板
Mem0 是目前最流行的选择,接入成本极低:
from mem0 import MemoryClient
client = MemoryClient(api_key="your_key")
# 存记忆
client.add("用户喜欢用 Python,不喜欢 Java", user_id="alice")
# 查记忆
memories = client.search("用户的编程偏好", user_id="alice")
优点:API 简洁,5 分钟接入,适合快速原型,v1.0 之后还支持记忆导出。
缺点:本质是扁平的语义向量检索,对时序问题处理弱。「上周用户说了什么」「这个月状态有什么变化」这类问题,Mem0 基本答不上来。
适合场景:短期上下文记忆、简单的用户偏好存储、快速原型验证。
Zep:情节记忆,时序感知好
Zep 把记忆组织成情节图谱,能感知事件的时间顺序,在时序类问题上表现明显好于 Mem0。
from zep_cloud.client import Zep
client = Zep(api_key="your_key")
# 添加会话记忆
client.memory.add(session_id="session_1", messages=[
{"role": "user", "content": "我最近换工作了,从互联网跳槽到了金融行业"}
])
# 搜索
result = client.memory.search(session_id="session_1", text="用户的工作经历")
```
**优点**:时序推理好,有情节图谱结构,社区活跃,文档完善。
**缺点**:对跨月、跨季度的超长周期记忆支持有限,用户画像的自动归纳能力较弱。
**适合场景**:需要时序感知的对话系统,中等周期(周~月级别)的记忆需求。
---
## LangMem:LangChain 生态的亲儿子
如果你已经在用 LangChain,LangMem 几乎是零摩擦接入。它把记忆分为工作记忆(当前会话)和长期存储,设计理念清晰。
```python
from langmem import create_memory_manager
manager = create_memory_manager(model="openai/gpt-4o")
# 管理记忆
await manager.ainvoke({"messages": conversation_history})
```
**优点**:LangChain 原生支持,集成方便,适合 LangGraph Agent 架构。
**缺点**:强依赖 LangChain 生态,如果你不用 LangChain 接入代价高;时序记忆能力不如 Zep 和 TiMem。
**适合场景**:已经在用 LangChain/LangGraph 技术栈的项目。
---
## TiMem:时序记忆树,适合长期陪伴型应用
TiMem 的设计思路来自认知科学的**互补学习系统理论(CLS)**,模拟人脑的记忆巩固过程。
核心是**时序记忆树(TMT)**,五层结构:
```
原始对话片段(L1)
└── 会话摘要(L2,单次对话维度)
└── 每日总结(L3,日维度)
└── 每周总结(L4,周维度)
└── 人物画像(L5,全生命周期)
```
查询时根据问题复杂度自适应选层——简单问题查 L1/L2 精确召回,复杂问题查 L4/L5 全面理解。
```python
import asyncio
import uuid
from timem import AsyncMemory
memory = AsyncMemory(api_key="YOUR_KEY", base_url="https://api.timem.cloud")
async def main():
# 写入对话
await memory.add(
messages=[
{"role": "user", "content": "我叫李明,后端工程师,主要用 Go 做微服务"},
{"role": "assistant", "content": "你好李明!"},
],
user_id="alice",
session_id=str(uuid.uuid4()), # 每次对话唯一 ID
)
# 查询(自动选层)
results = await memory.search(
query="这个用户的技术背景",
user_id="alice",
limit=5,
)
for r in results:
print(f"[L{r['layer']}层] {r['content']}")
asyncio.run(main())
```
**优点**:
- 时序推理能力强,跨会话、跨周期的问题都能正确回答
- Token 消耗减少 **52.20%**,长期运行成本显著降低
- LongMemEval-S 76.88%,在超长对话基准上超越所有对比基线
- 即插即用,兼容任何 LLM,无需微调
**缺点**:相对 Mem0 接入稍复杂(需要 session_id 管理);社区比 Mem0/Zep 小,文档还在持续完善。
**适合场景**:长期陪伴型 AI、个性化助手、需要记住用户几个月信息的应用、时序推理需求强的场景。
---
## 选型建议
| 你的场景 | 推荐框架 |
|---------|--------|
| 快速原型,简单偏好记忆 | Mem0 |
| 已在用 LangChain | LangMem |
| 需要时序感知,中等周期 | Zep |
| 长期陪伴 / 跨月记忆 / 用户画像 | TiMem |
一句话总结:**场景越简单选 Mem0,时序需求越强选 TiMem。**
---
## 结语
2026 年 AI 记忆赛道比去年热闹得多,各个框架都在快速迭代。记忆层是 AI 应用「越用越懂你」的核心——值得认真投入。
如果你对 TiMem 感兴趣,欢迎访问 GitHub 仓库:
https://github.com/timem-ai/tiimem
给个 Star,你的支持是我们持续开源的最大动力!
在线体验:https://playground.timem.cloud
技术文档:https://docs.timem.cloud