比较LLM中的知识注入:微调(SFT)还是检索(RAG)?

1,233 阅读3分钟

一、论文信息

  • 论文题目:Fine-Tuning or Retrieval? Comparing Knowledge Injection in LLMs
  • 论文链接:arxiv.org/pdf/2312.05…
  • 研究机构:Microsoft

二、概要

本文探讨了知识注入在语言模型中的两种方法:微调和检索增强生成。首先介绍了知识注入问题的 formulation,并将其与 question answering 的概念扩展为一致的术语。接着分别介绍了三种微调方法:监督微调、无监督微调和基于强化学习的微调。最后对四个任务进行了实验,比较了不同方法在四个领域的性能。实验结果表明,RAG 方法在大多数任务中表现最佳,但 SFT 方法在某些任务中仍具有优势。

一种知识注入框架:

image.png

三、讨论

  1. 维基百科数据清洗过程是什么?
  • 收集相关文章:通过维基百科API收集与任务相关的文章。
  • 利用“wikiextractor”工具进行数据清洗:将原始子节划分为干净的小片段,去除HTML、URL等不必要的内容
  • 手动评估和验证:对生成的问题进行人工评估和验证,确保问题的质量和准确性。
  1. 知识注入框架在知识密集型任务中的表现如何?

知识注入框架在知识密集型任务中的表现通常比没有使用知识注入框架的语言模型更好。这是因为知识注入框架能够将外部知识库中的信息整合到语言模型的训练过程中,使得语言模型能够更好地理解和处理与知识库相关的问题。 在知识密集型任务中,语言模型通常需要处理与特定领域相关的问题,这些问题通常需要大量的背景知识和专业知识。知识注入框架通过将外部知识库中的信息与语言模型的训练数据进行融合,使得语言模型能够更好地理解和处理这些问题。 例如,在自然语言处理任务中,知识注入框架可以将外部知识库中的实体和概念信息与语言模型的训练数据进行融合,使得语言模型能够更好地理解和处理与实体和概念相关的问题。在问答任务中,知识注入框架可以将外部知识库中的问题和答案信息与语言模型的训练数据进行融合,使得语言模型能够更好地理解和处理与问题和答案相关的问题。

  1. 知识注入框架如何帮助语言模型理解各种知识领域?

知识注入框架通过将外部知识库与语言模型相结合,帮助语言模型理解各种知识领域。具体来说,知识注入框架将外部知识库中的信息整合到语言模型的训练过程中,使得语言模型能够更好地理解和处理与知识库相关的问题。 在知识注入框架中,外部知识库通常被表示为一个知识图谱或一个文本语料库。知识图谱是一种结构化的知识表示方法,它将实体和概念之间的关系以图形的形式表示出来。文本语料库则是一个包含大量文本数据的集合,其中包含了丰富的语言知识和背景信息。 知识注入框架通过将外部知识库中的信息与语言模型的训练数据进行融合,使得语言模型能够更好地理解和处理与知识库相关的问题。例如,在自然语言处理任务中,知识注入框架可以将外部知识库中的实体和概念信息与语言模型的训练数据进行融合,使得语言模型能够更好地理解和处理与实体和概念相关的问题。