我花 3 天构建了一个会自我进化的 Agent 记忆框架——SOMA 首发

0 阅读5分钟

我花 3 天构建了一个会自我进化的 Agent 记忆框架——SOMA 首发

不是让 AI 记更多,而是让 AI 悟更深。
一个框架优先、双向激活、自我进化的 AI Agent 认知架构,今日开源。


问题:AI 开发助手为什么总是"失忆"?

过去几个月,我在三个项目中同时使用 Claude Code、Qoder 和 OpenCode。每天切换项目时,AI 助手就像被格式化的硬盘——上周修复过的 bug 这周又踩一遍,两周前确认过的架构决策今天又要重新解释。

我试过 Mem0、MemPalace、Letta(MemGPT)和 Zep。它们都是很好的记忆存储方案——把对话存进向量库,下次检索相似内容。但很快我发现一个根本问题:

这些系统只解决了"存储与检索",没解决"理解与推理"。

它们能告诉我"你上次说过 X",但无法帮我判断"这次的问题与上次 X 的关联是什么,应该从哪个角度切入思考"。

我需要的不只是一个记忆库。我需要一个会思考的认知框架


方案:SOMA — 体悟式智慧架构

SOMA(Somatic Wisdom Architecture)的核心理念是:记忆不应以时间为索引,而应以思维规律为索引。

传统记忆系统:  对话 → 存储向量 → 相似度检索 → 返回文本
SOMA 管线:    问题 → 拆解维度 → 双向激活记忆 → LLM合成 → 自我进化
              ─────────────────────────────────────────────────
              框架层(显式推理)              记忆层(辅助支撑)

核心设计:7 条思维规律的显式框架

SOMA 内置了一套可配置的思维规律框架(wisdom_laws.yaml),当前定义了 7 条:

规律权重说明
第一性原理0.90还原到基础元素,从根源推导
系统思维0.85看到整体关联,识别反馈循环
矛盾分析0.80寻找对立力量,识别主要矛盾
二八法则0.75聚焦决定 80% 结果的 20% 关键因素
逆向思考0.70反向推导——这件事怎么才能失败?
类比推理0.65跨领域结构映射
进化视角0.60观察时间维度上的变化规律

每次收到问题,SOMA 先用这 7 条规律拆解问题维度,再以维度为锚点双向激活相关记忆(语义相似 + 关键词匹配),最后把框架 + 记忆一起注入 LLM 合成回答。

这跟传统 RAG 有本质区别——RAG 是"找到相关文本塞进 prompt",SOMA 是"先构建思考框架,再按框架填充记忆"。


四阶段管线

Problem → Decompose → Activate → Synthesize → Evolve

阶段 1:Decompose(问题拆解)

用 7 条规律分解问题,生成多个 Focus 维度,每个 Focus 带上思考理由和关键词。比如问题"如何突破增长瓶颈",会被拆解为:

  • 第一性原理:增长 = f(获客,转化,留存,传播),每个因子拆开看
  • 二八法则:哪个 20% 渠道贡献了 80% 增长?
  • 系统思维:获客 ↑ 但留存 ↓,是否存在漏桶效应?

阶段 2:Activate(记忆激活)

每个 Focus 维度同时从三个记忆库检索:

  • 情节记忆(SQLite + 向量)——过往的具体经验
  • 语义记忆(三元组图谱)——抽象知识和规律
  • 技能记忆(模式匹配)——已验证的成功模式

使用加权 RRF(Reciprocal Rank Fusion),语义相似度 ×2 权重 + 关键词匹配 ×1 权重,双向竞争互补。

阶段 3:Synthesize(智慧合成)

将框架 + 激活记忆 + 当前问题组装成结构化 Prompt,调用 LLM 生成回答。整个过程支持 SSE 流式输出。

阶段 4:Evolve(自我进化)

记录每次推理中每条规律的贡献度。每 10 次会话自动 evolve():

  • 表现好的规律 +2% 权重
  • 表现差的规律 -2% 权重
  • 成功的(规律, 领域, 结果)模式固化为技能

这意味着框架会随着使用变得越来越精准


基准数据

在 2026-04-26 的基准测试中(普通 CPU,无 GPU):

指标分数说明
语义召回率100%10/10 改写查询正确召回
查询延迟5.4msONNX 加速,比 v0.1.0 快 17 倍
插入延迟0.1msSHA256 去重 + 向量编码
去重率100%基于内容哈希
拆解覆盖率100%10/10 问题类型正确拆解
思维多样性0.5967 条规律间的熵值
合成增益+45%vs 裸 LLM 基线

竞品对比:

系统语义召回查询延迟去重推理框架进化
SOMA100%5.4ms框架驱动
Mem092%15ms
MemPalace96%8ms
Letta88%20ms
Zep90%30ms

SOMA 是唯一同时具备记忆存储、显式推理框架和进化自我优化的系统。


五分钟接入

pip install soma-wisdom
python -m soma          # 一行命令验证
from soma import SOMA

soma = SOMA(llm="deepseek-chat")

soma.remember(
    "第一性原理思维:拆解到基本单元...",
    context={"domain": "philosophy"},
    importance=0.9,
)

answer = soma.respond("如何突破产品增长瓶颈?")
# SOMA 自动拆解 → 激活记忆 → LLM 合成
print(answer)

还带一个 Vue 3 仪表盘(中英文双语):

SOMA_API_KEY=test python dash/server.py
# 打开 http://localhost:8765

当前状态与路线图

  • v0.3.0b1 已发布 PyPI(soma-wisdom
  • GitHub 开源:github.com/sunyan99999…
  • Apache 2.0 许可证
  • 139 个测试,~97% 覆盖率
  • 已在实际项目中验证(Claude Code + Qoder + OpenCode 三方接入)

下一步

  • v0.4.0:多用户记忆隔离
  • Hugging Face Space 在线体验
  • LangChain / LlamaIndex 官方集成
  • 更多思维规律自动发现(law_discovery.py 已就位)

为什么叫 SOMA?

SOMA 是「Somatic Wisdom Architecture」的缩写,同时也借用了古希腊语中 σῶμα(身体/实体)的含义。我们认为真正的智慧不是漂浮在空中的抽象概念,而是具身于具体实践和自我反思之中的活体结构。


GitHub: github.com/sunyan99999…
PyPI: pip install soma-wisdom
License: Apache 2.0

如果你也在让 AI 变得更聪明这条路上摸索,欢迎提 Issue、PR,或者直接找我交流。