先说那个让我崩溃的问题
你有没有遇到过这种场景——
昨天你和Claude Code花了整整三个小时,一起把一个诡异的并发Bug给摁死了。你们研究了线程竞争,检查了锁的粒度,最后在一个犄角旮旯里找到了根源,心满意足地收工。
第二天你打开新会话,满心欢喜地说:"咱们继续昨天那个Bug的后续处理吧——"
Claude Code礼貌而陌生地回答你: "您好,我是Claude,请问有什么可以帮助您的?"
那一刻的感受,就像你辛辛苦苦培训了三个月的实习生,第二天来公司说: "老师您好,我是新来实习的,请多关照。"
这不是比喻,这是Claude Code(以及几乎所有AI编程助手)的现实——它在会话之间完全失忆。
这个问题折磨了我很久,直到我遇见了 [claude-mem] 。
国内对于Claude的使用确实不太友好,建议大家选一个靠谱的充值渠道,比如说这个网站:claudemax.shop
这个项目的数字,先让我缓缓
截至2026年5月1日,打开GitHub仓库,我看到的数字是:
⭐ 70,300 Stars | 🍴 6,000 Forks | 📝 1,823 Commits | 🚀 253次发布 | 最新版本 v12.4.9(2026-04-30)
253次发布。
我数了一下,这相当于每天平均发布将近1个新版本(从项目创建算起)。
这是什么概念?很多项目一辈子都出不了253个版本,而claude-mem在几个月内就达到了这个数字。这要么说明作者在疯狂迭代,要么说明他每次发布的间隔比我刷牙的频率还高(手动狗头)。
实际上两者都对。
作者是 Alex Newman(@thedotmack) ,官方X账号是 @Claude_Memory,项目有专属Discord社区,有正式文档站 docs.claude-mem.ai,甚至还有一个官方网站 claude-mem.ai。
哦对了,还有个彩蛋——项目末尾的README里提到了一个叫 $CMEM 的Solana代币,是第三方创建的,但作者官方认可了它。
好家伙,一个开源内存插件都有自己的链上资产了,这届开发者是真的整活。
(我作为金融从业者,对此保持谨慎旁观,绝不财务建议,绝不。)
claude-mem 到底是什么?一分钟版本
一句话:一个给 Claude Code 装上"长期记忆"的插件,自动记录你的每一次编程会话,用AI压缩成结构化知识,下次启动时自动注入相关上下文。
技术栈(给想深入的同学) :
- TypeScript(85.7%)+ JavaScript(7.9%) ,代码质量有保障
- 5个生命周期钩子:SessionStart / UserPromptSubmit / PostToolUse / Stop / SessionEnd
- SQLite + FTS5:持久化存储,全文检索
- ChromaDB 向量数据库:语义检索,找到"相关的"而不只是"匹配关键词的"
- 本地嵌入(all-MiniLM-L6-v2 via ONNX) :不需要外部API调用
- Bun HTTP Worker:后台服务运行在
localhost:37777,有Web界面
支持平台:Claude Code(原生)、Gemini CLI、OpenCode、Cursor、Windsurf、OpenClaw Gateway
支持语言:28种语言,包括中文(code--zh模式,内置,不需要额外安装)
安装命令简单到令人发指:
npx claude-mem install
就这一行。然后重启Claude Code。完事。
我是怎么用上它的:从怀疑到真香
第一天:装了,什么感觉都没有
安装完之后,我启动Claude Code,开始了一个新项目——一个量化交易信号的后处理模块(是的,老本行)。
那天的会话里我们分析了三个数据集,重构了信号过滤逻辑,讨论了为什么用指数加权移动平均比简单移动平均更适合这个场景,还一起修了两个边界条件处理的Bug。
会话结束。
我心里想:好,明天见真章。
第二天:…等等,它记住了?
第二天早上,我开了新会话,直接输入:
"继续昨天的量化信号模块。"
Claude Code 给我的回应让我愣了三秒钟。
它直接说:"根据之前的工作,我了解到您在处理信号过滤模块,使用了指数加权移动平均(EWA)策略,之前发现了边界条件在数据集切换时的异常……"
它记住了。
不是完整的复盘,不是照本宣科——它知道重点,知道上下文,知道我们讨论过什么,知道没有解决的问题是什么。
这就是 claude-mem 的核心魔法:它不是在你开新会话时塞给AI一篇日记,而是经过AI压缩的、精炼的、语义检索过的相关上下文。
三个月后:已经离不开它了
现在我已经用了三个月,说几个真实的感受:
第一,它最大的价值不是记住了什么,而是你不需要再"重新介绍"项目了。
原来每次开新会话的前15分钟,我都在跟Claude Code解释:这个项目是干嘛的、用了什么技术栈、有哪些约定、上次在哪里卡住了……现在这些事情claude-mem替我说了,我直接切入正题。
第二,跨天的Bug追踪变得可能了。
以前一个复杂Bug跨两天解决,我得在CLAUDE.md里手动记录进度。现在claude-mem自动记录每一次工具调用观察,第二天的上下文里就会有"昨天你在这个文件的这个函数里发现了这个问题"的信息。
第三,它比我想象的更"懂克制"。
我以为记忆插件会把所有东西都塞进context,结果把token吃完。实际上claude-mem用的是三层渐进式检索(后面详说),token消耗控制得很好。
技术架构深度拆解:为什么它不只是个"日记本"
核心问题:什么是"记忆"?
很多人以为持久化内存就是把会话存起来,下次全部读出来。这种做法有个致命问题:上下文窗口撑不住。
一周的编程会话,完整存下来可能是几十万token,而Claude Code的上下文窗口是200k。就算装得下,把不相关的信息全部注入进来,只会让AI更加困惑。
claude-mem的解决方案更聪明,分三层:
第一层:捕获(Capture)
每次 PostToolUse(工具调用完成后),claude-mem通过hook捕获这次操作的"观察结果"——不是原始文本,而是经过Claude Agent SDK处理的结构化事实:涉及的文件、做了什么、发现了什么问题、做了什么决策。
第二层:压缩(Compress)
原始观察被AI压缩成更紧凑的表示,存入SQLite数据库,同时生成向量嵌入存入ChromaDB。
第三层:检索(Retrieve)
下次会话开始(SessionStart hook触发),claude-mem不是把所有记忆全倒出来,而是根据当前项目和上下文语义检索最相关的记忆,分层注入:
// Step 1: 搜索索引,每条结果只占 ~50-100 token
search(query="authentication bug", type="bugfix", limit=10)
// Step 2: 时间线上下文,理解当时的背景
timeline(observation_id=123)
// Step 3: 只对筛选出的ID拉取全部细节,~500-1000 token/条
get_observations(ids=[123, 456])
这个三层MCP工具工作流声称可以实现约10倍的token节省,比起把全部历史直接塞进context。
五个生命周期钩子:一个静默的守护者
SessionStart → 注入相关历史上下文
UserPromptSubmit → 动态补充与当前问题相关的记忆
PostToolUse → 捕获工具调用结果生成观察
Stop → 会话暂停时的状态保存
SessionEnd → 生成会话摘要,归档记忆
这五个钩子完全后台运行,你在使用Claude Code时几乎感知不到它的存在——除了偶尔在会话开始时看到一行"从记忆中检索到X条相关观察"。
这种不打扰的设计,我很喜欢。
Web Viewer:你的AI开发历史实时可见
在 http://localhost:37777 跑着一个Web界面,可以:
- 实时看到观察(observations)被生成
- 搜索历史记录
- 管理记忆(手动删除、编辑)
- 切换Beta功能(包括Endless Mode)
- 调整版本频道(稳定版/Beta版)
这个界面对我的使用方式产生了意外的影响——我开始把它当成一个"AI辅助编程日志"来看,每天回顾AI在这个项目上做了什么,有没有走弯路,可以优化什么。
意外的生产力工具。
功能细节:我最喜欢的几个设计
1. <private> 标签:敏感信息不进记忆库
如果你不想让某些内容被记忆(比如API密钥、数据库密码、竞品分析内容),直接用标签包住:
<private>
API_KEY=sk-live-abc123xyz789
DATABASE_PASSWORD=supersecret456
</private>
边缘处理(edge processing)确保这些内容永远不会到达数据库。
对于我这种要在项目里处理金融数据连接信息的人来说,这个功能是必须要有的底线。
2. 多工作流模式(Mode System)
不同场景可以切换不同工作模式:
| 模式 | 描述 |
|---|---|
code | 默认英文编码模式 |
code--zh | 简体中文模式(内置,立即可用) |
code--ja | 日语模式 |
code--es | 西班牙语模式 |
| ...(28种语言) | 还有更多 |
对于我这种有时候需要中文记录技术决策的人来说,code--zh 模式意味着记忆库里的内容是中文的,检索和注入也是中文的,体验更自然。
配置只需要改一行:
// ~/.claude-mem/settings.json
{
"CLAUDE_MEM_MODE": "code--zh"
}
3. 自动生成项目的CLAUDE.md
claude-mem会在项目目录下自动维护CLAUDE.md文件,包含"Recent Activity"时间线——观察ID、时间戳、类型标签、简短标题、预估token数。
这意味着你得到的不只是全局记忆,还有项目级别的活动记录,可以被版本控制,可以被团队共享。
4. 多机器同步(claude-mem-sync)
通过SSH同步不同机器上的observations和session summaries。
对我这种有时候在公司机器、有时候在家里Mac上工作的人来说,这个功能价值很大。配置有点麻烦,但完成之后记忆真的是跟着你而不是跟着机器。
5. Beta功能:Endless Mode(仿生记忆架构)
这是一个实验性功能,项目描述为"biomimetic memory architecture"(仿生记忆架构)。
普通模式下,大约50次工具调用后上下文开始受限;Endless Mode声称可以支撑约1,000次工具调用——20倍的提升。
代价是:每次工具调用会增加60-90秒的观察生成延迟。
对于深度、长时间的编码会话(比如我那种一个项目连续做几周的),这个trade-off可能值得。对于快速迭代的场景,这个延迟会很烦人。
从 http://localhost:37777 → Settings → Version Channel 可以切换。
真实测评:亮点与槽点,一起说清楚
🌟 让我真正印象深刻的地方
1. 253次发布的维护密度,说明作者是认真的
最新版本 v12.4.9 于2026年4月30日发布(就是昨天!),v12.x 系列专注在稳定性修复上:修复了新鲜安装时观察持久化失败的静默错误(no such column),修复了context overflow导致的无限循环,修复了内部协议payload污染用户记录的问题……
这些修复的粒度和质量,说明作者在用真实的生产场景驱动开发。
2. 提交记录里有 Claude Opus 4.5/4.6/4.7 的共同署名
这个细节打动了我:项目本身的大量开发是用Claude Code完成的,提交记录里可以看到"Co-authored-by: Claude Opus 4.6"这样的字样。
这个插件是用它所服务的工具构建的。 这种一致性,某种程度上是最好的产品背书。
3. 本地优先,隐私清晰
所有数据默认存在本地,Worker服务只绑定localhost,有速率限制,有路径遍历防护。<private>标签提供细粒度的排除控制。
没有把你的代码历史上传到外部服务器(除非你主动配置同步)。对于处理敏感数据的我来说,这是底线。
4. 多IDE支持是认真的,不是摆设
Claude Code(原生完整支持)、Gemini CLI、OpenCode 都有专门的安装路径:
# Gemini CLI
npx claude-mem install --ide gemini-cli
# OpenCode
npx claude-mem install --ide opencode
# OpenClaw Gateway(一行完整安装)
curl -fsSL https://install.cmem.ai/openclaw.sh | bash
⚠️ 存在的问题,我也不藏着
1. 每次工具调用会有延迟
claude-mem在后台处理观察生成,正常模式下延迟不明显,但偶尔在网络差或模型响应慢的情况下,你能感觉到有个"小停顿"。如果你是那种工具调用密集、要求极速响应的用户,可能会有轻微不适。
2. 依赖链不算轻
自动安装 Bun(JavaScript运行时)、uv(Python包管理器,用于ChromaDB)、SQLite……对大多数开发者来说透明且无感,但如果你在受限环境(比如企业内网、加固过的开发容器)里工作,可能会遇到权限或网络问题。
3. AGPL-3.0协议需要注意
跟MIT不同,AGPL要求如果你修改了代码并在网络服务器上部署,必须公开源代码。个人使用完全没问题,但如果你打算在商业产品里集成claude-mem的修改版,需要认真考虑一下这个协议的影响。
注意:ragtime/ 目录是单独的 PolyForm Noncommercial License(仅限非商业使用)。
4. $CMEM 代币这件事
README末尾提到了这个Solana代币。作者澄清是第三方创建的,他只是"官方认可"了它。
作为金融行业从业者,我的职业本能让我在这里打了个问号。这不影响插件本身的技术价值,但如果你看到这一段感到困惑或不适,这是正常反应。使用插件和参与代币是完全独立的两件事。
70.3k Star:含金量拆解
好,来聊聊这个数字够不够实在。
截至2026年5月1日:70,300 Stars,6,000 Forks
Fork/Star比值:6000/70300 ≈ 8.5%
这是健康的。纯收藏型项目Fork率通常低于5%,8.5%说明相当比例的人在真实部署它(Fork是安装的前提条件之一)。
增长轨迹很有意思:
- 项目在48小时内冲到了46k GitHub stars,早期增长来自Claude Code社区的真实痛点共鸣
- 到4月20日达到了65.8k Stars,1,792次提交,106个贡献者,244次发布
- 5月1日已到70.3k Stars,253次发布
这种增长曲线相对平稳,不像是短期刷星行为,更像是真实用户持续流入。
但我要说一件事:
claude-mem攻击的是一个简单而烦人的问题:AI编程助手在会话结束后忘记一切。 这个问题的普遍性导致了快速传播。但Star数≠质量保证,任何工具都需要你自己用了才算数。
我用了三个月,结论是:这个Star数是配得上的,但不是因为它完美,而是因为它在解决一个真实的、高频的、让人烦透了的问题,而且它在认真迭代。
与同类工具的横向对比
| 工具 | 解决思路 | 优点 | 缺点 |
|---|---|---|---|
| claude-mem | 自动捕获+AI压缩+向量检索 | 全自动,零手动维护 | 依赖链重,有延迟 |
| 手写CLAUDE.md | 手动记录上下文 | 完全可控,零依赖 | 需要手动维护,容易遗漏 |
| ECC连续学习系统 | 基于Stop-hook提取模式 | 与ECC体系深度整合 | 需要安装整套ECC |
| 自制PowerShell脚本 | 捕获git提交+文件创建 | 极轻量,完全透明 | 功能有限,需要自己维护 |
我的建议:如果你想要真正自动化的、无需维护的记忆系统,选claude-mem。如果你想要完全掌控每一条记录,手写CLAUDE.md + claude-mem二者并用也是可行方案(它们可以完美共存)。
快速上手:真正5分钟能搞定
# 第一步:安装
npx claude-mem install
# 第二步:重启Claude Code
# (就这样,已经完成了)
# 可选:切换中文模式
# 编辑 ~/.claude-mem/settings.json
# { "CLAUDE_MEM_MODE": "code--zh" }
# 可选:查看Web界面
open http://localhost:37777
# 可选:用自然语言搜索记忆
# 在Claude Code里使用 mem-search 技能:
# "搜索上周关于认证模块的讨论"
对,就这么简单。不需要配置数据库,不需要管理API Key(记忆压缩用的是你已有的Claude API),不需要学习任何新命令。
总评打分
| 维度 | 评分 | 说明 |
|---|---|---|
| 解决问题的准确性 | ⭐⭐⭐⭐⭐ | 精准击中Claude Code最大痛点 |
| 安装便利性 | ⭐⭐⭐⭐⭐ | 一行命令,自动处理依赖 |
| 记忆质量 | ⭐⭐⭐⭐☆ | AI压缩质量高,偶有信息丢失 |
| 隐私安全 | ⭐⭐⭐⭐⭐ | 本地优先,<private>标签,清晰透明 |
| 维护活跃度 | ⭐⭐⭐⭐⭐ | 253次发布,几乎每天更新 |
| 协议友好度 | ⭐⭐⭐☆☆ | AGPL-3.0对商业使用有限制 |
| 综合 | ⭐⭐⭐⭐½ | Claude Code用户的强烈推荐,解决了真实痛苦 |
最后说几句真心话
我做金融也做编程,两个行业有个共同的真理:工具的价值不在于它有多复杂,在于它解决了多真实的问题。
期货市场里最有价值的信号往往不是最复杂的模型,而是最能描述真实行为的简单规律。
claude-mem解决的问题——"让AI记住你们一起做过的事"——足够简单,足够真实,足够高频。
在AI编程工具越来越强大的今天,开发者们不只是需要更聪明的模型,他们需要能记住的模型。claude-mem在用它自己的方式回答这个问题。
253次发布告诉我:作者在认真做这件事,不是来收割Star就跑路的。
70.3k Star告诉我:这个痛点是真实存在的,不是我一个人的困扰。
至于那个$CMEM代币——买不买是你的事,我的职业让我保持观望。
但插件本身?装。