AI终于不再"失忆"了!我用这个插件让Claude Code记住了我三个月的编程经历

2 阅读6分钟

先说那个让我崩溃的问题

你有没有遇到过这种场景——

昨天你和Claude Code花了整整三个小时,一起把一个诡异的并发Bug给摁死了。你们研究了线程竞争,检查了锁的粒度,最后在一个犄角旮旯里找到了根源,心满意足地收工。

第二天你打开新会话,满心欢喜地说:"咱们继续昨天那个Bug的后续处理吧——"

Claude Code礼貌而陌生地回答你: "您好,我是Claude,请问有什么可以帮助您的?"

那一刻的感受,就像你辛辛苦苦培训了三个月的实习生,第二天来公司说: "老师您好,我是新来实习的,请多关照。"

这不是比喻,这是Claude Code(以及几乎所有AI编程助手)的现实——它在会话之间完全失忆

这个问题折磨了我很久,直到我遇见了  [claude-mem]

国内对于Claude的使用确实不太友好,建议大家选一个靠谱的充值渠道,比如说这个网站:claudemax.shop

这个项目的数字,先让我缓缓

截至2026年5月1日,打开GitHub仓库,我看到的数字是:

⭐ 70,300 Stars | 🍴 6,000 Forks | 📝 1,823 Commits | 🚀 253次发布 | 最新版本 v12.4.9(2026-04-30)

253次发布。

ScreenShot_2026-05-01_095037_167.png 我数了一下,这相当于每天平均发布将近1个新版本(从项目创建算起)。

这是什么概念?很多项目一辈子都出不了253个版本,而claude-mem在几个月内就达到了这个数字。这要么说明作者在疯狂迭代,要么说明他每次发布的间隔比我刷牙的频率还高(手动狗头)。

实际上两者都对。

作者是 Alex Newman(@thedotmack) ,官方X账号是  @Claude_Memory,项目有专属Discord社区,有正式文档站 docs.claude-mem.ai,甚至还有一个官方网站 claude-mem.ai

哦对了,还有个彩蛋——项目末尾的README里提到了一个叫  $CMEM 的Solana代币,是第三方创建的,但作者官方认可了它。

好家伙,一个开源内存插件都有自己的链上资产了,这届开发者是真的整活。

(我作为金融从业者,对此保持谨慎旁观,绝不财务建议,绝不。)


claude-mem 到底是什么?一分钟版本

一句话:一个给 Claude Code 装上"长期记忆"的插件,自动记录你的每一次编程会话,用AI压缩成结构化知识,下次启动时自动注入相关上下文。

技术栈(给想深入的同学)

  • TypeScript(85.7%)+ JavaScript(7.9%) ,代码质量有保障
  • 5个生命周期钩子:SessionStart / UserPromptSubmit / PostToolUse / Stop / SessionEnd
  • SQLite + FTS5:持久化存储,全文检索
  • ChromaDB 向量数据库:语义检索,找到"相关的"而不只是"匹配关键词的"
  • 本地嵌入(all-MiniLM-L6-v2 via ONNX) :不需要外部API调用
  • Bun HTTP Worker:后台服务运行在 localhost:37777,有Web界面

支持平台:Claude Code(原生)、Gemini CLI、OpenCode、Cursor、Windsurf、OpenClaw Gateway

支持语言:28种语言,包括中文(code--zh模式,内置,不需要额外安装)

安装命令简单到令人发指:

npx claude-mem install

就这一行。然后重启Claude Code。完事。


我是怎么用上它的:从怀疑到真香

第一天:装了,什么感觉都没有

安装完之后,我启动Claude Code,开始了一个新项目——一个量化交易信号的后处理模块(是的,老本行)。

那天的会话里我们分析了三个数据集,重构了信号过滤逻辑,讨论了为什么用指数加权移动平均比简单移动平均更适合这个场景,还一起修了两个边界条件处理的Bug。

会话结束。

我心里想:好,明天见真章。

第二天:…等等,它记住了?

第二天早上,我开了新会话,直接输入:

"继续昨天的量化信号模块。"

Claude Code 给我的回应让我愣了三秒钟。

它直接说:"根据之前的工作,我了解到您在处理信号过滤模块,使用了指数加权移动平均(EWA)策略,之前发现了边界条件在数据集切换时的异常……"

它记住了。

不是完整的复盘,不是照本宣科——它知道重点,知道上下文,知道我们讨论过什么,知道没有解决的问题是什么。

这就是 claude-mem 的核心魔法:它不是在你开新会话时塞给AI一篇日记,而是经过AI压缩的、精炼的、语义检索过的相关上下文

三个月后:已经离不开它了

现在我已经用了三个月,说几个真实的感受:

第一,它最大的价值不是记住了什么,而是你不需要再"重新介绍"项目了。

原来每次开新会话的前15分钟,我都在跟Claude Code解释:这个项目是干嘛的、用了什么技术栈、有哪些约定、上次在哪里卡住了……现在这些事情claude-mem替我说了,我直接切入正题。

第二,跨天的Bug追踪变得可能了。

以前一个复杂Bug跨两天解决,我得在CLAUDE.md里手动记录进度。现在claude-mem自动记录每一次工具调用观察,第二天的上下文里就会有"昨天你在这个文件的这个函数里发现了这个问题"的信息。

第三,它比我想象的更"懂克制"。

我以为记忆插件会把所有东西都塞进context,结果把token吃完。实际上claude-mem用的是三层渐进式检索(后面详说),token消耗控制得很好。


技术架构深度拆解:为什么它不只是个"日记本"

1_68h0DAcSLyOlmvgkB-GDzg.png

核心问题:什么是"记忆"?

很多人以为持久化内存就是把会话存起来,下次全部读出来。这种做法有个致命问题:上下文窗口撑不住

一周的编程会话,完整存下来可能是几十万token,而Claude Code的上下文窗口是200k。就算装得下,把不相关的信息全部注入进来,只会让AI更加困惑。

claude-mem的解决方案更聪明,分三层:

第一层:捕获(Capture)

每次 PostToolUse(工具调用完成后),claude-mem通过hook捕获这次操作的"观察结果"——不是原始文本,而是经过Claude Agent SDK处理的结构化事实:涉及的文件、做了什么、发现了什么问题、做了什么决策。

第二层:压缩(Compress)

原始观察被AI压缩成更紧凑的表示,存入SQLite数据库,同时生成向量嵌入存入ChromaDB。

第三层:检索(Retrieve)

下次会话开始(SessionStart hook触发),claude-mem不是把所有记忆全倒出来,而是根据当前项目和上下文语义检索最相关的记忆,分层注入:

// Step 1: 搜索索引,每条结果只占 ~50-100 token
search(query="authentication bug", type="bugfix", limit=10)

// Step 2: 时间线上下文,理解当时的背景
timeline(observation_id=123)

// Step 3: 只对筛选出的ID拉取全部细节,~500-1000 token/条
get_observations(ids=[123, 456])

这个三层MCP工具工作流声称可以实现约10倍的token节省,比起把全部历史直接塞进context。

1_GoUqnX2d2SWB62IvivZFJQ.png

五个生命周期钩子:一个静默的守护者

SessionStart     → 注入相关历史上下文
UserPromptSubmit → 动态补充与当前问题相关的记忆
PostToolUse      → 捕获工具调用结果生成观察
Stop             → 会话暂停时的状态保存
SessionEnd       → 生成会话摘要,归档记忆

这五个钩子完全后台运行,你在使用Claude Code时几乎感知不到它的存在——除了偶尔在会话开始时看到一行"从记忆中检索到X条相关观察"。

这种不打扰的设计,我很喜欢。

Web Viewer:你的AI开发历史实时可见

在 http://localhost:37777 跑着一个Web界面,可以:

  • 实时看到观察(observations)被生成
  • 搜索历史记录
  • 管理记忆(手动删除、编辑)
  • 切换Beta功能(包括Endless Mode)
  • 调整版本频道(稳定版/Beta版)

这个界面对我的使用方式产生了意外的影响——我开始把它当成一个"AI辅助编程日志"来看,每天回顾AI在这个项目上做了什么,有没有走弯路,可以优化什么。

意外的生产力工具。


功能细节:我最喜欢的几个设计

1. <private> 标签:敏感信息不进记忆库

如果你不想让某些内容被记忆(比如API密钥、数据库密码、竞品分析内容),直接用标签包住:

<private>
API_KEY=sk-live-abc123xyz789
DATABASE_PASSWORD=supersecret456
</private>

边缘处理(edge processing)确保这些内容永远不会到达数据库。

对于我这种要在项目里处理金融数据连接信息的人来说,这个功能是必须要有的底线

2. 多工作流模式(Mode System)

不同场景可以切换不同工作模式:

模式描述
code默认英文编码模式
code--zh简体中文模式(内置,立即可用)
code--ja日语模式
code--es西班牙语模式
...(28种语言)还有更多

对于我这种有时候需要中文记录技术决策的人来说,code--zh 模式意味着记忆库里的内容是中文的,检索和注入也是中文的,体验更自然。

配置只需要改一行:

// ~/.claude-mem/settings.json
{
  "CLAUDE_MEM_MODE": "code--zh"
}

3. 自动生成项目的CLAUDE.md

claude-mem会在项目目录下自动维护CLAUDE.md文件,包含"Recent Activity"时间线——观察ID、时间戳、类型标签、简短标题、预估token数。

这意味着你得到的不只是全局记忆,还有项目级别的活动记录,可以被版本控制,可以被团队共享。

4. 多机器同步(claude-mem-sync)

通过SSH同步不同机器上的observations和session summaries。

对我这种有时候在公司机器、有时候在家里Mac上工作的人来说,这个功能价值很大。配置有点麻烦,但完成之后记忆真的是跟着你而不是跟着机器。

5. Beta功能:Endless Mode(仿生记忆架构)

这是一个实验性功能,项目描述为"biomimetic memory architecture"(仿生记忆架构)。

普通模式下,大约50次工具调用后上下文开始受限;Endless Mode声称可以支撑约1,000次工具调用——20倍的提升。

代价是:每次工具调用会增加60-90秒的观察生成延迟。

对于深度、长时间的编码会话(比如我那种一个项目连续做几周的),这个trade-off可能值得。对于快速迭代的场景,这个延迟会很烦人。

从 http://localhost:37777 → Settings → Version Channel 可以切换。


真实测评:亮点与槽点,一起说清楚

1_hY3wY-RvsuF4aIFopX9cMg.webp

🌟 让我真正印象深刻的地方

1. 253次发布的维护密度,说明作者是认真的

最新版本 v12.4.9 于2026年4月30日发布(就是昨天!),v12.x 系列专注在稳定性修复上:修复了新鲜安装时观察持久化失败的静默错误(no such column),修复了context overflow导致的无限循环,修复了内部协议payload污染用户记录的问题……

这些修复的粒度和质量,说明作者在用真实的生产场景驱动开发。

2. 提交记录里有 Claude Opus 4.5/4.6/4.7 的共同署名

这个细节打动了我:项目本身的大量开发是用Claude Code完成的,提交记录里可以看到"Co-authored-by: Claude Opus 4.6"这样的字样。

这个插件是用它所服务的工具构建的。  这种一致性,某种程度上是最好的产品背书。

3. 本地优先,隐私清晰

所有数据默认存在本地,Worker服务只绑定localhost,有速率限制,有路径遍历防护。<private>标签提供细粒度的排除控制。

没有把你的代码历史上传到外部服务器(除非你主动配置同步)。对于处理敏感数据的我来说,这是底线。

4. 多IDE支持是认真的,不是摆设

Claude Code(原生完整支持)、Gemini CLI、OpenCode 都有专门的安装路径:

# Gemini CLI
npx claude-mem install --ide gemini-cli

# OpenCode  
npx claude-mem install --ide opencode

# OpenClaw Gateway(一行完整安装)
curl -fsSL https://install.cmem.ai/openclaw.sh | bash

⚠️ 存在的问题,我也不藏着

1. 每次工具调用会有延迟

claude-mem在后台处理观察生成,正常模式下延迟不明显,但偶尔在网络差或模型响应慢的情况下,你能感觉到有个"小停顿"。如果你是那种工具调用密集、要求极速响应的用户,可能会有轻微不适。

2. 依赖链不算轻

自动安装 Bun(JavaScript运行时)、uv(Python包管理器,用于ChromaDB)、SQLite……对大多数开发者来说透明且无感,但如果你在受限环境(比如企业内网、加固过的开发容器)里工作,可能会遇到权限或网络问题。

3. AGPL-3.0协议需要注意

跟MIT不同,AGPL要求如果你修改了代码并在网络服务器上部署,必须公开源代码。个人使用完全没问题,但如果你打算在商业产品里集成claude-mem的修改版,需要认真考虑一下这个协议的影响。

注意:ragtime/ 目录是单独的 PolyForm Noncommercial License(仅限非商业使用)。

4. $CMEM 代币这件事

README末尾提到了这个Solana代币。作者澄清是第三方创建的,他只是"官方认可"了它。

作为金融行业从业者,我的职业本能让我在这里打了个问号。这不影响插件本身的技术价值,但如果你看到这一段感到困惑或不适,这是正常反应。使用插件和参与代币是完全独立的两件事。


70.3k Star:含金量拆解

好,来聊聊这个数字够不够实在。

截至2026年5月1日:70,300 Stars,6,000 Forks

Fork/Star比值:6000/70300 ≈ 8.5%

这是健康的。纯收藏型项目Fork率通常低于5%,8.5%说明相当比例的人在真实部署它(Fork是安装的前提条件之一)。

增长轨迹很有意思

  • 项目在48小时内冲到了46k GitHub stars,早期增长来自Claude Code社区的真实痛点共鸣
  • 到4月20日达到了65.8k Stars,1,792次提交,106个贡献者,244次发布
  • 5月1日已到70.3k Stars,253次发布

这种增长曲线相对平稳,不像是短期刷星行为,更像是真实用户持续流入。

EXX-Blog-vector-data-base-llm-gen-ai-dl-2_(1).webp 但我要说一件事:

claude-mem攻击的是一个简单而烦人的问题:AI编程助手在会话结束后忘记一切。 这个问题的普遍性导致了快速传播。但Star数≠质量保证,任何工具都需要你自己用了才算数。

我用了三个月,结论是:这个Star数是配得上的,但不是因为它完美,而是因为它在解决一个真实的、高频的、让人烦透了的问题,而且它在认真迭代。


与同类工具的横向对比

工具解决思路优点缺点
claude-mem自动捕获+AI压缩+向量检索全自动,零手动维护依赖链重,有延迟
手写CLAUDE.md手动记录上下文完全可控,零依赖需要手动维护,容易遗漏
ECC连续学习系统基于Stop-hook提取模式与ECC体系深度整合需要安装整套ECC
自制PowerShell脚本捕获git提交+文件创建极轻量,完全透明功能有限,需要自己维护

我的建议:如果你想要真正自动化的、无需维护的记忆系统,选claude-mem。如果你想要完全掌控每一条记录,手写CLAUDE.md + claude-mem二者并用也是可行方案(它们可以完美共存)。


快速上手:真正5分钟能搞定

# 第一步:安装
npx claude-mem install

# 第二步:重启Claude Code
# (就这样,已经完成了)

# 可选:切换中文模式
# 编辑 ~/.claude-mem/settings.json
# { "CLAUDE_MEM_MODE": "code--zh" }

# 可选:查看Web界面
open http://localhost:37777

# 可选:用自然语言搜索记忆
# 在Claude Code里使用 mem-search 技能:
# "搜索上周关于认证模块的讨论"

对,就这么简单。不需要配置数据库,不需要管理API Key(记忆压缩用的是你已有的Claude API),不需要学习任何新命令。


总评打分

维度评分说明
解决问题的准确性⭐⭐⭐⭐⭐精准击中Claude Code最大痛点
安装便利性⭐⭐⭐⭐⭐一行命令,自动处理依赖
记忆质量⭐⭐⭐⭐☆AI压缩质量高,偶有信息丢失
隐私安全⭐⭐⭐⭐⭐本地优先,<private>标签,清晰透明
维护活跃度⭐⭐⭐⭐⭐253次发布,几乎每天更新
协议友好度⭐⭐⭐☆☆AGPL-3.0对商业使用有限制
综合⭐⭐⭐⭐½Claude Code用户的强烈推荐,解决了真实痛苦

最后说几句真心话

我做金融也做编程,两个行业有个共同的真理:工具的价值不在于它有多复杂,在于它解决了多真实的问题。

期货市场里最有价值的信号往往不是最复杂的模型,而是最能描述真实行为的简单规律。

claude-mem解决的问题——"让AI记住你们一起做过的事"——足够简单,足够真实,足够高频。

在AI编程工具越来越强大的今天,开发者们不只是需要更聪明的模型,他们需要能记住的模型。claude-mem在用它自己的方式回答这个问题。

253次发布告诉我:作者在认真做这件事,不是来收割Star就跑路的。

70.3k Star告诉我:这个痛点是真实存在的,不是我一个人的困扰。

至于那个$CMEM代币——买不买是你的事,我的职业让我保持观望。

但插件本身?装。