我花 3 天构建了一个会自我进化的 Agent 记忆框架——SOMA 首发
不是让 AI 记更多,而是让 AI 悟更深。
一个框架优先、双向激活、自我进化的 AI Agent 认知架构,今日开源。
问题:AI 开发助手为什么总是"失忆"?
过去几个月,我在三个项目中同时使用 Claude Code、Qoder 和 OpenCode。每天切换项目时,AI 助手就像被格式化的硬盘——上周修复过的 bug 这周又踩一遍,两周前确认过的架构决策今天又要重新解释。
我试过 Mem0、MemPalace、Letta(MemGPT)和 Zep。它们都是很好的记忆存储方案——把对话存进向量库,下次检索相似内容。但很快我发现一个根本问题:
这些系统只解决了"存储与检索",没解决"理解与推理"。
它们能告诉我"你上次说过 X",但无法帮我判断"这次的问题与上次 X 的关联是什么,应该从哪个角度切入思考"。
我需要的不只是一个记忆库。我需要一个会思考的认知框架。
方案:SOMA — 体悟式智慧架构
SOMA(Somatic Wisdom Architecture)的核心理念是:记忆不应以时间为索引,而应以思维规律为索引。
传统记忆系统: 对话 → 存储向量 → 相似度检索 → 返回文本
SOMA 管线: 问题 → 拆解维度 → 双向激活记忆 → LLM合成 → 自我进化
─────────────────────────────────────────────────
框架层(显式推理) 记忆层(辅助支撑)
核心设计:7 条思维规律的显式框架
SOMA 内置了一套可配置的思维规律框架(wisdom_laws.yaml),当前定义了 7 条:
| 规律 | 权重 | 说明 |
|---|---|---|
| 第一性原理 | 0.90 | 还原到基础元素,从根源推导 |
| 系统思维 | 0.85 | 看到整体关联,识别反馈循环 |
| 矛盾分析 | 0.80 | 寻找对立力量,识别主要矛盾 |
| 二八法则 | 0.75 | 聚焦决定 80% 结果的 20% 关键因素 |
| 逆向思考 | 0.70 | 反向推导——这件事怎么才能失败? |
| 类比推理 | 0.65 | 跨领域结构映射 |
| 进化视角 | 0.60 | 观察时间维度上的变化规律 |
每次收到问题,SOMA 先用这 7 条规律拆解问题维度,再以维度为锚点双向激活相关记忆(语义相似 + 关键词匹配),最后把框架 + 记忆一起注入 LLM 合成回答。
这跟传统 RAG 有本质区别——RAG 是"找到相关文本塞进 prompt",SOMA 是"先构建思考框架,再按框架填充记忆"。
四阶段管线
Problem → Decompose → Activate → Synthesize → Evolve
阶段 1:Decompose(问题拆解)
用 7 条规律分解问题,生成多个 Focus 维度,每个 Focus 带上思考理由和关键词。比如问题"如何突破增长瓶颈",会被拆解为:
- 第一性原理:增长 = f(获客,转化,留存,传播),每个因子拆开看
- 二八法则:哪个 20% 渠道贡献了 80% 增长?
- 系统思维:获客 ↑ 但留存 ↓,是否存在漏桶效应?
阶段 2:Activate(记忆激活)
每个 Focus 维度同时从三个记忆库检索:
- 情节记忆(SQLite + 向量)——过往的具体经验
- 语义记忆(三元组图谱)——抽象知识和规律
- 技能记忆(模式匹配)——已验证的成功模式
使用加权 RRF(Reciprocal Rank Fusion),语义相似度 ×2 权重 + 关键词匹配 ×1 权重,双向竞争互补。
阶段 3:Synthesize(智慧合成)
将框架 + 激活记忆 + 当前问题组装成结构化 Prompt,调用 LLM 生成回答。整个过程支持 SSE 流式输出。
阶段 4:Evolve(自我进化)
记录每次推理中每条规律的贡献度。每 10 次会话自动 evolve():
- 表现好的规律 +2% 权重
- 表现差的规律 -2% 权重
- 成功的(规律, 领域, 结果)模式固化为技能
这意味着框架会随着使用变得越来越精准。
基准数据
在 2026-04-26 的基准测试中(普通 CPU,无 GPU):
| 指标 | 分数 | 说明 |
|---|---|---|
| 语义召回率 | 100% | 10/10 改写查询正确召回 |
| 查询延迟 | 5.4ms | ONNX 加速,比 v0.1.0 快 17 倍 |
| 插入延迟 | 0.1ms | SHA256 去重 + 向量编码 |
| 去重率 | 100% | 基于内容哈希 |
| 拆解覆盖率 | 100% | 10/10 问题类型正确拆解 |
| 思维多样性 | 0.596 | 7 条规律间的熵值 |
| 合成增益 | +45% | vs 裸 LLM 基线 |
竞品对比:
| 系统 | 语义召回 | 查询延迟 | 去重 | 推理框架 | 进化 |
|---|---|---|---|---|---|
| SOMA | 100% | 5.4ms | ✓ | 框架驱动 | ✓ |
| Mem0 | 92% | 15ms | ✓ | — | — |
| MemPalace | 96% | 8ms | ✓ | — | — |
| Letta | 88% | 20ms | ✓ | — | — |
| Zep | 90% | 30ms | ✓ | — | — |
SOMA 是唯一同时具备记忆存储、显式推理框架和进化自我优化的系统。
五分钟接入
pip install soma-wisdom
python -m soma # 一行命令验证
from soma import SOMA
soma = SOMA(llm="deepseek-chat")
soma.remember(
"第一性原理思维:拆解到基本单元...",
context={"domain": "philosophy"},
importance=0.9,
)
answer = soma.respond("如何突破产品增长瓶颈?")
# SOMA 自动拆解 → 激活记忆 → LLM 合成
print(answer)
还带一个 Vue 3 仪表盘(中英文双语):
SOMA_API_KEY=test python dash/server.py
# 打开 http://localhost:8765
当前状态与路线图
- v0.3.0b1 已发布 PyPI(
soma-wisdom) - GitHub 开源:github.com/sunyan99999…
- Apache 2.0 许可证
- 139 个测试,~97% 覆盖率
- 已在实际项目中验证(Claude Code + Qoder + OpenCode 三方接入)
下一步
- v0.4.0:多用户记忆隔离
- Hugging Face Space 在线体验
- LangChain / LlamaIndex 官方集成
- 更多思维规律自动发现(law_discovery.py 已就位)
为什么叫 SOMA?
SOMA 是「Somatic Wisdom Architecture」的缩写,同时也借用了古希腊语中 σῶμα(身体/实体)的含义。我们认为真正的智慧不是漂浮在空中的抽象概念,而是具身于具体实践和自我反思之中的活体结构。
GitHub: github.com/sunyan99999…
PyPI: pip install soma-wisdom
License: Apache 2.0
如果你也在让 AI 变得更聪明这条路上摸索,欢迎提 Issue、PR,或者直接找我交流。