你是否遇到过这样的困扰:昨天和 AI 助手花了两小时讨论出一个复杂方案,今天打开新会话,它却什么也不记得,你不得不从头解释项目背景、你的偏好和上次讨论的结论。这不是 AI “不够聪明”,而是当前 AI Agent 在架构层面上默认没有记忆——每次对话都是初次见面。
YC 总裁兼 CEO Garry Tan 面对同样的问题,只是规模更惊人:数百个创始人关系、十几年的投资决策、跨越多个系统的信息碎片。2026 年 4 月,他用约一周时间为自己构建了一套真正运转的个人知识引擎,并将其以 MIT 协议开源,命名为 GBrain。24 小时内 GitHub Stars 突破 5,400,至今已超过 14,000。这个数字的背后,是它切中了整个 AI 开发者社区一个藏了很久的真实痛点:如何让 AI 真正了解你的世界,而不是每次对话都从零开始。
一、GBrain 是什么?
GBrain 的官方定位是:为 AI Agent 设计的个人知识图谱系统。它的目标不是简单地存储几条偏好设置,而是建立起一个随时间自动积累、能感知人与人之间的关系、能在你睡觉时自动整理更新的长期记忆后端。
它的设计服务对象是“靠思考为生的人”——投资人、CEO、研究员、高密度信息处理者。但任何觉得“AI 每次对话都像初次见面”的人,都是潜在受益者。
在真实生产环境中,Garry 的个人大脑在 12 天内自动生长出 17,888 个知识页面,包含 4,383 份人物档案、723 家公司的结构化信息,21 个定时任务在他睡觉时默默整理当天的会议记录、修复信息矛盾。这不是一个演示用的 Demo,而是他运营 YC、管理数百个创始人关系的真实底层工具。
二、核心功能:不止是“记住”,而是“理解”
1. 自动构建人脉知识图谱
每当会议记录、邮件或推文中出现一个人、一家公司或一个概念,GBrain 会自动为其创建一个页面,并自动识别关系类型——这个人“任职于”哪家公司、“创立了”什么项目、“投资了”哪些企业、“参与过”哪次会议。这不是模糊的存储,而是有类型的结构化链接。之后你问“谁在 Acme AI 工作”或“Bob 最近投资了什么”,GBrain 能给出精确的图查询结果,而非仅靠语义匹配。
2. 夜间自主整理:DreamCycle
每天夜里,GBrain 会自动运行一轮维护:扫描当天的会议转录和对话、增强缺失实体的页面、修复前后矛盾的信息、跨页面整合记忆。你早上醒来时,这个“大脑”比你入睡前更完整。这是它区别于普通知识库的核心特征——它是一个在你不用它时持续自我进化的系统,而非一个等你喂食的静态容器。
3. Compiled Truth:知识的“活文档”模式
每个知识页面都分为两部分:上方的 Compiled Truth(编译真相)是你的当前最佳理解,当新证据出现时会自动重写;下方的时间线是追加的证据轨迹,记录你何时、从何处获得这条信息,永不删改。这让“你相信什么”和“你为什么相信”被清晰分开——当你需要更新一个判断时,你能看到所有证据来源。
4. 数据自动流入
GBrain 提供完整的集成配方,让信息从邮件、会议转录、浏览器书签、社交平台等自动汇入,无需手动复制粘贴。信息归集后经过统一的 enrichment 流水线处理:自动推断元数据、抽取实体关系、智能判定重要等级、向量化索引,全程 90% 的工作不需要调用任何大模型,只有最后的向量嵌入步骤才真正“烧算力”。
5. Skillify:把经验固化成永久技能
当 GBrain 发现一个重复成功的操作模式(比如每次整理投资 memo 都按同一结构),它可以把这个流程固化成一个永久技能文件,下次你只需说一句触发短语,Agent 就自动按你的框架工作。更关键的是,Skillify 还能把反复发生的失败转化为预防性技能——当你连续踩了三次同样的坑,GBrain 会提醒你将解决方案 distill 成新技能,经过三家不同厂商的前沿模型独立评分通过后,才用测试将其锁死,避免重蹈覆辙。
三、架构一览:三层结构支撑个人知识引擎
GBrain 的整体架构分三层,设计上追求零配置与可扩展的平衡:
- 入口层:由
gbrainCLI 和 MCP Server 组成,用户和 AI Agent 通过命令行或标准化 MCP 协议调用知识库中的 30 余个工具。 - 核心引擎层:Brain Engine 负责所有存储和查询逻辑。默认使用 PGLite(PostgreSQL 通过 WASM 编译的嵌入式版本),无需安装数据库服务,个人规模(≤1000 篇笔记)开箱即用;也可切换到 Postgres + pgvector 以支撑更大规模。引擎内部集成了混合搜索(向量 + 关键词 + RRF 融合)、Compiled Truth 格式化和实体图谱。
- 存储层:四类核心数据——Pages(知识页面)、Chunks(分块向量索引)、Links(类型化实体边,构成知识图谱)、Skills(技能文件,定义 Agent 工作流)。所有内容以 Markdown 文件落盘,可被 Git 管理,实现“零锁定”的数据主权。
四、检索原理:12 步流水线如何把准确率提到 49.1%
GBrain 官方测试集上,其前 5 条结果精确率(P@5)达到 49.1%,比禁用图谱的纯混合搜索高出 +31.4 个百分点。这背后是一条精心设计的 12 步混合检索栈,每一步都解决特定问题:
- 意图改写:用纯正则将查询意图分类为实体查询、时间线查询、事件查询等,决定后续 boost 策略(例如时间线类查询会关闭 Compiled Truth 的 ×2.0 加成)。
- 多查询扩展:用轻量 LLM 将原始问题改写成 3 个等价表述,扩大语义覆盖半径。
- 向量 ×3 路召回:对 3 个改写分别用 pgvector 做余弦相似度检索,每路取 top-50 候选。
- 关键词全文召回:使用 PostgreSQL 的 GIN 索引和
websearch_to_tsquery做精确关键词匹配,防止语义搜索遗漏术语。 - RRF 融合:用倒数排名融合算法(k=60)将多路结果合并,让被多路同时命中的 chunk 获得更高分。
- Compiled Truth ×2.0:如果命中 chunk 来自“编译真相”区域(即经过跨版本合成的权威结论),分数直接翻倍。
- 反向链接加成:被其他页面 typed-link 指向越多的页面,获得温和的额外加权(1 个反向链接加约 3.5%,100 个加约 23%)。
- 图遍历扩展:沿知识图谱的出边/入边递归 2 跳,召回相关实体页面,提升关系类查询的覆盖度。
- 来源感知加权:根据笔记所在目录区分权重——精心写作(writing/)乘 1.4,群聊草稿(wintermute/chat/)乘 0.5,归档文件(archive/)直接排除。
- 4 层去重:按页面、文本相似度、类型多样性逐层去重,并保证至少有一条 Compiled Truth 片段进入最终结果。
- LLM 重排:用轻量模型对 top-12 候选进行语义精排,输出最终 5 条。
- 答案合成:将前 5 条片段与问题一起喂给强模型,生成带引用的最终答案。
消融实验揭示了一个深刻结论:关掉 typed-link 图谱,P@5 从 49.1% 暴跌至 22.1%,关掉 Compiled Truth 降至 38.5%,关掉 RRF 降至 33.0%。这表明检索质量不是由某个“银弹”技术单独支撑的,而是整套加权流水线协同叠加的结果。普通 RAG 只做向量 + 简单重排,缺的正是这一整套工程化的多层信号。
五、知识图谱:四组正则零 LLM 抽取的事实网络
GBrain 的 typed-link 图谱是整个系统检索质量跃升的关键,而它的构建方式十分“朴素”——用四组英文动词正则表达式从 Markdown 正文中直接提取关系:
FOUNDED:匹配 founded、co-founded、founder of 等INVESTED:匹配 invested in、backed by、led the round 等ADVISES:匹配 advisor to、advisory board、consults for 等WORKS_AT:匹配 CEO of、engineer at、previously at 等
按优先级 founded > invested_in > advises > works_at 级联匹配,没有命中时降级为 mentions,并有一层 page-role 兜底(如果整个人物页都在描写一位投资人,则其指向公司的所有链接默认视为 invested_in)。整套流程不调用一次大模型,抽取速度极快,零 token 成本。在 BrainBench 的 240 页传记式语料上,这套正则级联能将 P@5 从 22.1% 拉到 49.1%。
图谱存储于 PostgreSQL 的 links 表中,通过递归 CTE 可进行多跳图遍历,例如查询“Garry Tan 沿 founded 边 2 跳能走到哪些公司”。所有关系都带有可追溯的命中上下文,每一刀切在哪条正则上都清晰可查——这比 LLM 黑箱抽取更可调试、更可审计。
六、后台自我进化:DreamCycle 与 Minions 异步队列
许多重操作无法塞进一次对话的请求延迟里:page-rank 计算要十几秒,Compiled Truth 编译要几十秒,全库向量索引更新可能需数分钟。GBrain 的做法是:将所有费时任务全部解耦到一套 Postgres 原生的异步任务队列 中,由后台 worker 进程慢慢消化,用户请求路径只保留“读 + 检索 + 拼答”这三件快事。
这套队列名为 Minions,不依赖 Redis 或 RabbitMQ,所有状态全部存于一张 minion_jobs 表。Worker 用 FOR UPDATE SKIP LOCKED 实现无锁竞争 claim 任务,有心跳锁防止死进程占位,有指数退避与 jitter 处理 API 失败重试。安全性上,shell 和 subagent 等危险 job 被标记为受保护名称,无法通过 MCP 远程调用提交,只有本地信任进程才能发起。
DreamCycle 是每天早上 3:14 自动触发的 9 阶段维护流水线:lint 扫脏数据 → backlinks 修复反向链接 → sync 同步新笔记 → synthesize 编译权威版本 → extract 抽取 typed-link → patterns 检测模式 → embed 更新向量 → orphans 标出孤立页面 → purge 清理软删除。你起床时,大脑已经自我更新完毕。
七、Compiled Truth:知识不是被存储,而是被编译
普通 RAG 的做法是每次把原始证据喂给 LLM,由 LLM 当场推理出结论。但当你关于同一个概念有多份散落的笔记——一条语音备忘录、一篇半成品文章、一个随手写的概念小条——彼此说法甚至存在冲突,LLM 就不得不每次重复做一遍“阅读理解 + 版本对比 + 冲突消解”的脑力活。
GBrain 的 Synthesize 阶段反其道而行:它让 LLM 在凌晨的 DreamCycle 中,一次性把所有候选笔记编译成一份 canonical 权威版本,写入 pages.compiled_truth 列。次日你检索时,这段已经编译好的结论被打上 chunk_source='compiled_truth' 标记,在混合检索中直接获得 ×2.0 的加权,无需再重复推理。
工程上,这一机制由三道安全闸门保护:
- Haiku 廉价判别:先用最便宜的模型判断一组候选是否真正值得编译,过滤掉 90% 的噪音内容,大幅节省 Sonnet 成本。
- allow-list 许可名单:Subagent 只能往
wiki/personal/reflections/等少数受信任目录写页面,代码层面强制校验,永远无法篡改已有的人物或公司档案。 - dream_generated 身份戳:每次编译产出的页面,其 frontmatter 都会打上
dream_generated: true标签。下一次 Synthesize 阶段扫描输入时,正则一扫就会跳过这些上一轮自己的产出,防止 LLM 拿自己的输出再加工,形成回声室效应,让原始信号逐轮衰减。
这种“记忆即编译”的范式,让知识不再是一堆散乱的碎片,而是一部持续修订的个人百科全书。
八、与同类方案的区别:不是谁的替代品,而是定位不同
AI 记忆赛道在 GBrain 之前已有几位重要玩家:
- Mem0(55K+ Stars):面向开发者的 API 优先记忆层,旨在嵌入到产品中,服务 B 端集成。
- Letta(原 MemGPT)(22K+ Stars):UC Berkeley 学术背景,侧重 Agent 自我改善评测,记忆作为运行时。
- Zep(约 4,500 Stars):企业级生产混合搜索 + 知识图谱,面向企业客户。
GBrain(约 14,000 Stars)的核心差异不在“做得更好”,而在 定位就是个人知识工作者。它不要求你写代码集成,不面向企业部署,而是解决一个人自己的信息管理问题。它的技能文件用 Markdown 写成,内容可用 Git 管走,数据完全归个人所有——这是“Memory as Git + SQL”范式的具象化。
结语:你的知识,需要一座永不丢失的大脑
GBrain 的成功不是因为它发明了什么惊天动地的算法,而是它把一堆已知的技术(关键词检索、向量搜索、RRF 融合、正则表达式、递归 CTE、Postgres 行锁、LLM 结构化输出、多模型交叉验证)按照“个人长期记忆”这个需求重新揉在了一起,并在每一个环节都做了工程上极其务实的取舍:能 deterministic 的绝不调 LLM,能异步的绝不阻塞,能写进 Git 的绝不留黑箱。
对于每一个信息过载的知识工作者,GBrain 展示了一条清晰的道路:你的 AI 助手不应该每次都“初次见面”——它应该拥有一份随着你的工作、阅读、交谈而持续生长的完整记忆。而这套记忆的底层,不该是某个厂商的封闭数据库,而是一个你自己掌控、可版本管理、可审计、可迁移的 Markdown + Postgres 知识引擎。