为何你的RAG系统无法处理复杂问题(一)

52 阅读7分钟

为何您的RAG系统在处理复杂问题时会失败?(以及结构化如何解决一切问题)

大语言模型(LLMs)在文本生成和复杂推理方面展现出了非凡的能力。但我们都知道,它们并非完美无缺。

当大语言模型(LLMs)在现实世界中部署时,这些应用会遇到一些挑战。有时它们会产生幻觉,有时则会给出过时的回答。

**检索增强生成(RAG)**的提出正是为了解决这些缺陷。RAG通过首先从外部文档中检索相关信息来增强大语言模型(LLMs),从而使模型的回答有根有据。这大大减少了幻觉现象。

一个好的解决方案,对吧?并非完全如此。

传统的检索增强生成(RAG)方法遇到了瓶颈,因为它们通常将外部信息作为原始、非结构化的文本段落进行处理。这种杂乱的文本往往包含令人困惑或非原子性的信息,可能会误导大语言模型(LLMs)。当系统试图回答需要多步推理的复杂查询时,这也会使其陷入困境。

为了克服这些限制,出现了检索和结构化(RAS)范例。RAS通过添加额外的知识结构化步骤来扩展RAG。

在这篇博客中,我将带您了解RAS框架、框架中的不同阶段以及框架中包含实施的步骤。

为什么我们需要为检索增强生成(RAG)构建数据结构?

结构化通过将检索到的非结构化文本转换为有组织、可操作的知识,解决了传统检索增强生成(RAG)中的一些关键局限性。

让我们来了解一下为什么在检索增强生成(RAG)中结构化数据很重要。

1. 克服传统检索增强生成(RAG)的局限性

传统的检索增强生成(RAG)将大语言模型(LLMs)与外部信息连接起来,以缓解诸如幻觉和知识过时等问题。然而,即使是RAG也面临局限性,因为它将文档作为非结构化文本段落进行处理。

非结构化文本通常包含无关细节,这些细节可能会干扰模型,导致得出误导性的答案。

普通的检索增强生成(RAG)在处理复杂问题时往往力不从心,尤其是当这些问题需要多步推理或特定领域的结构化知识时。

2. 增强大语言模型的生成与推理能力

将外部知识构建成知识图谱等表示形式,是提升大语言模型(LLM)输出和推理能力的关键。

当答案基于结构化知识构建时,模型产生幻觉的可能性就会降低。例如,KG-RAG使用知识图谱来引导模型,因此回答更加准确和有依据。

结构化数据使模型能够洞察事实之间的联系。这有助于它处理需要更深入推理的更复杂问题。

RAS与闭源模型和开源模型的性能比较表明,RAS可以为AI应用带来改进。

按回车键或点击以查看全尺寸图像

RAS的性能——包括闭源模型和开源模型——[来源]

什么是RAS?

检索与结构化(RAS)范式通过整合知识结构化技术(如分类法和知识图谱)扩展了传统的检索增强生成(RAG),这些技术将非结构化文本转化为有组织的知识,以增强推理和验证。

RAS范式将三个关键组件统一到一个框架中: 信息检索结构化知识表示(如知识图谱)和大语言模型

让我来给出一个简单易懂的RAS版本。

传统大语言模型仅依赖于它们从大量训练中记住的内容(这些内容可能已经过时或不完整)。它们可能会猜测或“编造”答案。

**RAG(检索增强生成)**的发展是为了解决幻觉以及过时/专有数据的问题。RAG框架让大语言模型(LLM)查找相关书籍(检索非结构化文本段落)。问题在于,它们可能会得到一大堆杂乱无章的文本,这些文本令人困惑,或者包含非原子性、误导性的信息。

RAS(检索与结构化)已发展成为一种强大的策略,可消除杂乱数据问题

步骤1:检索 — 大语言模型搜索所有相关文档。

步骤2:结构化 — 但大语言模型(LLM)不是提取原始文本,而是访问有组织的内容(知识图谱或分类法)。这消除了混淆,并将事实和关系区分开来。

**步骤3:生成 —**最后,大语言模型(LLM)使用这个经过整理的知识图谱来构建一个事实性、准确性和易于验证的答案。

按回车键或点击以查看全尺寸图像

RAS范式的抽象示例[来源]

本质上,RAS不仅教会大语言模型如何查找信息,还教会它如何正确地组织和推理信息。

RAS范式的基本原则

RAS框架增强了大语言模型执行知识密集型任务的能力,并能更有效地发现知识。RAS的核心是有效利用结构化数据,以改进检索过程和大语言模型的输出质量:

1. 结构增强检索(更智能地查找知识)

结构化技术有助于检索系统准确找到大语言模型(LLM)所需的内容,尤其适用于复杂或特定领域的问题。有3种基本方法可以增强检索效果。

基于分类法的方法: RAS不是仅仅进行一般性搜索,而是使用特定领域的主题分类法。这意味着搜索是由对该主题有意义的结构引导的,因此不需要大量标记的训练数据。

**基于知识图谱KG)的方法:**在此,知识图谱有助于提高检索质量。例如,像KG-RAG这样的方法让大语言模型(LLM)逐步遍历图谱,运用其推理能力。这种方法通常能找到更准确的信息,因为它关注的是关系和联系,而不仅仅是关键词。

**迭代循环:**此方法使用迭代循环,其中经过分类法增强的检索器会查找相关文档,然后立即将这些文档构建成子图,以更新特定查询的知识图谱(KG)。大语言模型(LLM)使用这个结构化的知识图谱来回答查询,如果有必要,它会生成一个聚焦的子查询,以启动一个新的、更精准的检索循环。

2. 结构增强的大语言模型生成(更智能地利用知识)

一旦检索到的知识被结构化,挑战就转移到如何利用这种结构来增强大语言模型(LLM)的回答。结构增强的大语言模型生成将模型回答建立在明确的知识结构之上,这能显著减少幻觉现象并提高事实一致性。

ToG(图上思考)使大语言模型(LLMs)能够通过引导式、提示驱动的探索直接与知识图谱(KGs)进行推理,逐步构建明确的推理链。

GoT(思维图)将大语言模型的推理过程构建为图结构,而非简单的线性链,从而支持多路径探索和循环思维等复杂的思维模式。

其他使用的技术包括GraphRAG,它将复杂的结构化知识浓缩成文本摘要,使大语言模型(LLM)能够处理需要全面理解语料库的复杂查询。

按回车键或点击以查看全尺寸图像

RAS范式的基本原则 — 作者使用Napkin.ai创作的图片

明天我们会详细介绍一下实现步骤。