为什么 AI 也需要“记忆”?

120 阅读12分钟

传统数据库,正在成为提升 AI 实时感知与外部世界适应力的关键,使其能够访问超出模型训练截止日期的新数据。

 

AI 系统是“终极健忘者”。

尽管它们在生成文本、代码、音乐等方面表现惊人,但它们受到“眼前提示词”的限制。你若询问 ChatGPT 上周推荐过的某道菜谱,它很可能会一头雾水,甚至编造一个答案。大型语言模型(LLMs)本质上是无状态的:它们处理每个请求时,都当作全新的输入,没有任何累积的学习或个性化记忆。

 

但这一现状正在发生变化。所有领先的大模型提供商都在积极探索如何为 AI 引入“记忆”机制,而这有望从根本上改变 AI 的影响力。正如 AI 领域的知名开发者、也是我在 MongoDB 的前同事 Richmond Alake 所说:“AI 中的记忆并不是全新概念……但它在现代 AI Agent 中的应用,却具有变革性意义。”为什么?因为“真正的个性化和长期价值,取决于智能体是否具备记忆、学习与适应的能力。”换句话说,真正的智能不仅是基于神经网络处理数十亿字的能力,更在于能在关键时刻记住相关信息。

 

因此,“记忆”正逐渐成为 AI 中那块缺失的拼图,它可能是将今日“健忘型聊天机器人”转变为“具适应性的智能伴侣”的关键因素。而现在最大的问题是:我们该如何赋予 AI 所需的记忆能力?

解决方法也十分简单:数据库。

 

通过数据库,AI 拥有了可持久化的外部记忆模块

 

是的,说的正是 数据库。

虽然你很难在当下关于 AI 的热门术语榜单中看到“数据库”这个词 。你说 MCP 服务器!GAN!我们早就超越了检索增强生成(RAG)(那可是 2024 年 的事了!),如今已经一脚踏进了 Agent 系统的深水区。至于 “Agent 究竟是什么”,正如 Santiago Valdarrama 所说:“几乎没有人能说清楚。但在这些闪亮新潮的 AI 技术浪潮背后,真正支撑一切的,仍然是 数据。而数据库,正是数据的承载者。

 

在传统软件系统中,数据库一直是“真相之源” —— 用于存储状态与数据的长期存储系统。

而在生成式 AI 时代,数据库正在扮演全新的角色:成为 AI 技术栈中的“记忆层”。

事实上,向量数据库 已成为生成式 AI 技术堆栈中的核心组成部分,它们解决了大型语言模型(LLMs)的一些关键限制,比如幻觉(hallucination)和缺乏持久记忆的问题。通过将知识存储在 AI 可查询的数据库中,我们实际上为模型配备了一个 外部大脑,来补足其“内置智能”。

正如 Alake 在一段讲解视频中指出的:要理解并善用 AI 的“记忆能力”,可以从几个关键方向切入:

● 角色记忆(Personal memory):存储智能体的身份信息、性格特征、角色设定、专业领域和沟通风格。例如:AI 是一名“英语教师”,性格温和、注重引导、善于启发式提问。

● 工具箱记忆(Toolbox memory):保存智能体所拥有的工具定义、元数据、参数结构(Schema)及向量嵌入,用于支持调用外部能力。例如:记录“天气查询 API”的输入参数格式、使用限制和示例数据。

● 会话记忆(Conversation memory):存储用户与智能体之间的历史对话内容,用于实现多轮上下文理解。例如:用户上一次问了“去东京旅行需要签证吗”,本轮问“那从美国出发呢?”模型能正确联想上下文

● 工作流记忆(Workflow memory):跟踪多步骤任务或流程的执行状态。例如:在“报销流程”中,AI 能记住当前步骤是“上传发票”,而非每次都从第一步开始。

● 情节记忆(Episodic memory):存储智能体“曾经经历”的特定事件或交互经验,具备“经历感”。例如:记住用户曾说“我妈妈生日是 6 月 18 日”,未来在对话中主动提醒你提前准备礼物。

● 长期记忆(知识库)(Long-term memory (knowledge base) ):提供持久的背景知识支撑,如行业规范、公司文档、百科类知识等。例如:将产品文档、员工手册、项目指南等内容嵌入数据库供 AI 调用

● 智能体注册记忆(Agent registry):用于存储与智能体交互的实体信息,如人类用户、其他 AI、外部 API 等。例如:记录“张三”是一位客户经理,其下属有“李四”,常用的 API 是 CRM 查询接口。

● 实体记忆(Entity memory):存储与运行期间接触到的各种实体相关的数据与事实。例如:记住用户“projectX”的预算是 300 万,已使用 120 万,项目经理是 Alice。

● 工作记忆(working memory):模型的临时“短期记忆区”,依托于大语言模型的上下文窗口实现,负责处理当前对话或任务中的活动信息。例如:在一个复杂的 prompt 中,模型会用 working memory 追踪当前变量或指令执行的中间状态。

 

这么多种“记忆”,我们该如何真正将它们落地?

事实上,这仍是整个行业正在探索的问题。但就目前而言,对大多数企业来说,RAG(检索增强生成,Retrieval-Augmented Generation) 是实现 AI 记忆最常见也最实用的方法。

在 RAG 架构中,AI 会从一个外部知识库(通常是数据库)中检索出相关事实,作为回答的一部分依据。

相比完全依赖模型预训练阶段学到的知识(那些信息可能已经过时或过于泛化),RAG 让 AI 在回答时实时查询外部存储,常用的数据源包括 向量数据库,用于查找结构化文档、用户历史、产品手册等。

这一机制让 AI 能够“记住”它从未在训练中接触过的内容,比如:

● 企业内部文档

● 某位用户的历史行为数据

● 实时更新的产品价格或政策

最终,这些检索结果被融入生成式回答中,使得 AI 输出内容更加精准、上下文相关且实时可信。

 

通过将数据库中提取的数据动态注入到提示词中,AI 系统能够实现更连贯的持续对话,并准确回答特定领域的问题——本质上,它获得了超越模型固定参数的状态感知能力与长期记忆。

这意味着:AI 不再每次都从“零”开始。它可以记住先前的对话内容,也能访问训练截止时间之后的新知识与事实。

简而言之,数据库(尤其是向量数据库)正逐渐成为 AI 实现长期记忆的关键基础设施

 

向量、图谱与混合记忆体系

当然,并非所有的“记忆”都是一样的,不同的数据库技术也有各自的运行机制。在当前 AI 快速发展的背景下,整个行业正在积极探索多种数据库方案来充当 AI 的“记忆层”,每种技术都有其优势与权衡。

正如前文提到的,向量数据库(Vector Database)是 AI 记忆体系中最具代表性的技术之一。它们擅长进行语义相似度检索,也就是说,能够根据“意思接近”而非“关键词相同”来查找信息片段。

这使得它们非常适用于处理非结构化数据,例如分段文本。用户提出问题时,系统可在大量文本中找到语义上最接近的段落,作为生成答案的依据。

 

正如 AI 行业的一贯风格,我们曾短暂地“迷恋”过那些独立的向量数据库(如 Weaviate、Pinecone 等)。但这段热恋并未持续太久——几乎所有主流数据库厂商(包括我曾经和现在就职的公司:MongoDB 和 Oracle)都迅速在自家核心数据库中加入了向量搜索能力。

早在 2023 年,AWS 就宣布:“我们将在未来为所有数据库服务加入向量能力。”

而如今,AWS 大多数数据库服务都已内建了向量支持。在 AWS、Oracle、MongoDB 等平台上,向量能力的集成使开发者可以将 向量嵌入(embeddings)与业务数据并存,从而构建出同时具备知识检索与业务状态感知的智能应用。

 

换句话说,应用数据库与 AI 记忆存储之间的界限正在变得模糊。

 

尽管如此,单靠向量搜索并不能解决所有的记忆问题。其中一个局限是,纯粹的语义相似度可能会忽略上下文,例如时间或关系。一次向量查询可能会返回一条几个月前的事实,它在技术上是相似的,但在上下文中却已经过时。这时,图数据库等其他数据存储方式就派上用场了。

知识图谱技术将信息以节点和边的形式存储。你可以把它想象成一个由关系连接的事实网络(例如,谁是哪个公司 CEO、某个文档是什么时候创建的等)。这种结构化的记忆可以帮助 AI 区分某件事发生的时间或事实之间的关联。

例如,当你问“你昨天推荐我哪家餐厅?”时,基于图的记忆可以根据明确的推荐日期来过滤结果,而不仅仅是依赖语义相似度。因此,图结构可以提供一种时间和上下文感知能力,这是向量搜索所无法实现的。

 

它们还具有可审计性。你可以通过关系追溯 AI 为什么会检索到某个事实,这对于调试和建立信任非常有用。像 Zep 这样的初创公司正在探索将向量与类似图结构的链接结合的混合方法,以兼顾两者的优点。

缺点是什么?基于图的记忆需要定义 schema 并维护结构化数据,这可能较为复杂,并且无法涵盖非结构化文本中的所有细节。

对于许多应用来说,一个简单的向量存储(或支持向量的文档型数据库)在易用性与效果之间提供了一个理想的平衡点。

 

我们也看到了混合搜索方法的出现:将传统的关键词查询与向量相似度结合使用。在进行语义匹配之前,可以通过元数据(如日期范围、用户 ID 或标签)对结果进行过滤,从而确保 AI “记住”的内容不仅在语义上相关,也在上下文中成立。

在实际应用中,AI 开发者通常会使用多种技术的组合:短期记忆缓冲用于存储最近的交互,向量数据库用于长期的语义回忆,有时还会使用关系型或文档型数据库来存储明确的事实和特定用户的数据。

这些组件共同构成了一个基础的记忆层级结构:快速但短暂的记忆(上下文窗口)加上持久且可检索的记忆(数据库)。数据库本质上就像是 AI 的“海马体”,用于存储可以在需要时提取的经验和知识,以支持未来的推理。

 

终结 AI 的健忘症

 

尽管神经网络和模型规模成为了热点话题,真正悄然重塑 AI 能力的,却是那个看似不起眼的技术 —— 数据库,这个用于记录和事务处理的传统工具。

当我们将数据库接入 AI 系统时,就赋予了它工作记忆和长期记忆的能力。AI 不仅可以维持状态、实时学习新信息,还能调用过往知识来辅助未来的决策。

这或许不够炫酷,但它至关重要。

 

当然,挑战依然存在。工程师们仍在探索如何在大规模下管理 AI 的记忆,包括决定哪些信息应当保留,哪些应当遗忘,以防止信息过载;确保相关的事实不会被过时的数据淹没;以及防范所谓的“记忆投毒”——即错误数据污染了 AI 的知识体系。

这些问题本质上是经典的数据管理难题,只是穿上了 AI 的新外衣。未来的解决方案无疑将借鉴数据库领域的成熟技术(如事务、索引、缓存),同时结合新的方法,比如更智能的上下文剪枝机制和更高质量的嵌入模型。

整个 AI 技术栈正在围绕一个核心共识形成统一:模型、数据与记忆,必须协同运作。

这也意味着,当下一次 AI 助手流畅地回忆起你上次的对话,或是根据几周前你提到的小习惯调整回答内容时,背后正有一个数据库在默默工作,充当这台“人工智能大脑”的记忆银行。