基于Langchain的llm的代理机制之记忆| 豆包MarsCode AI刷题

170 阅读4分钟

引言

记忆的类型 记忆可定义为获取、存储、保留和检索信息的过程。人脑中有几种类型的记忆。

感官记忆

这是记忆的最早阶段,能够在原始刺激结束后保留对感官信息(视觉、听觉等)的印象。感官记忆通常只能持续几秒钟。其子类别包括图标记忆(视觉)、回声记忆(听觉)和触觉记忆(触觉)。

短时记忆(STM)或工作记忆

它存储我们当前意识到的信息,以及执行学习和推理等复杂认知任务所需的信息。据信,短时记忆的容量约为 7 个项目(米勒,1956 年),持续时间为 20-30 秒。

长时记忆(LTM)

长时记忆可以将信息存储很长时间,从几天到几十年不等,存储容量基本上是无限的。长时记忆有两种子类型:

显性/陈述性记忆

这是对事实和事件的记忆,指那些可以有意识地回忆起的记忆,包括外显记忆(事件和经历)和语义记忆(事实和概念)。

内隐/程序性记忆

这类记忆是无意识的,涉及自动执行的技能和例行程序,如骑车或在键盘上打字。

感官记忆是学习原始输入(包括文本、图像或其他模式)的嵌入表征;短时记忆,即上下文学习。 由于受到 Transformer 的有限上下文窗口长度的限制,它是短暂而有限的。长期记忆作为外部矢量存储,代理可在查询时加以关注,并可通过快速检索进行访问。

深入探讨记忆类型 感官记忆 感官记忆是信息处理的第一步,它允许我们快速捕捉到周围环境中的变化。例如,在视觉系统中,图标记忆能够让我们记住刚刚看到的画面,即便这一画面已经不在视野之中。对于听觉来说,回声记忆则帮助我们理解连续的言语流,即使某个词语或音节只被短暂地听到。这些能力对于人类理解和交互世界至关重要。在AI领域,模仿这种即时但短暂的记忆形式可以帮助机器更好地处理实时数据流,比如视频监控分析、语音识别等场景。

短时记忆/工作记忆 短时记忆不仅限于简单地保持少量信息,更重要的是它支持了复杂的认知活动,如解决问题、规划未来行动等。在实际应用中,这意味着AI系统需要具备一定的“注意力”机制来聚焦于当前任务相关的信息片段。Transformer架构通过自注意力机制实现了这一点,允许模型在处理序列数据时灵活调整其关注点。然而,由于计算资源的限制,这种短期记忆的能力也是有限制的,通常只能覆盖一定长度的文本或数据序列。

长时记忆 长时记忆的重要性在于它构成了个体知识库的基础。显性记忆使我们能够回忆起具体事件和个人经历,而语义记忆则涉及广泛的知识体系。相比之下,程序性记忆更多地涉及到技能和习惯的学习。在构建智能系统时,创建一个有效的长期记忆解决方案是至关重要的,这不仅仅是为了存储大量数据,更重要的是要能够有效地检索并利用这些信息来进行决策。一种方法是使用外部矢量数据库作为长期记忆的模拟,这样可以实现高效的数据管理与查询。

记忆机制在大模型中的实现 增强学习与记忆:结合强化学习技术,可以让模型根据以往的经验调整其行为策略,从而更加智能地应对新情况。 记忆网络:某些研究提出了专门设计用于处理记忆问题的神经网络结构,如记忆网络(Memory Networks),这类网络尝试通过引入可读写的记忆组件来提高模型解决复杂任务的能力。 上下文窗口优化:虽然传统的Transformer模型受限于固定的上下文窗口大小,但研究人员正在探索各种方法来克服这一局限,比如通过分段处理或者采用稀疏注意力模式来扩大有效记忆范围。 持续学习:为了使模型能够随着时间不断学习新的知识而不忘记旧的知识,持续学习成为了一个重要方向。这种方法旨在让模型能够在遇到新信息时更新自身参数,同时保留已有的知识。 综上所述,通过对不同类型记忆机制的理解及其在AI领域的应用探索,我们可以更好地设计和发展下一代更加智能且适应性强的算法。