一、幻觉的概念
在大语言模型(LLM)的语境之下,"幻觉"(hallucination)指的是模型在没有足够证据支持的情况下,生成的错误或虚构的信息。这种现象在自然语言处理(NLP)任务中尤其突出,如文本生成、摘要、对话系统等。大语言模型如GPT系列,在生成连贯、流畅的文本的同时,也可能产生与事实不符的内容,这就是所谓的"幻觉"
二、幻觉的特点
根据我们使用ChatGPT的常用场景,我总结了以下几个幻觉的特点
2.1 非事实性
模型可能会创造出不存在的事实或事件,这些信息看似合理,但与现实不符
2.2 内容不一致
在生成的文本中,模型可能会提供相互矛盾或逻辑上不连贯的信息。
2.3 缺乏依据
生成的信息缺乏来自输入数据的明确支持,似乎是模型"凭空想象"的结果
三、幻觉产生的原因
幻觉的产生通常归因于几个因素:
- 模型训练数据的局限性:模型训练所用的数据可能包含偏差、错误或不完整的信息,导致模型在学习时就已经接触到错误或不一致的内容。
- 模型对现实世界知识的理解有限:尽管大型语言模型在处理文本时表现出惊人的能力,但它们并不具备真正理解现实世界的能力。它们缺乏对现实世界复杂性的深入理解,这限制了它们在某些情况下正确生成文本的能力。
- 复杂上下文的挑战:在处理长篇幅文本或复杂上下文时,即使是先进的大型语言模型也可能遇到难题,导致生成不准确或不相关的内容。
- 生成过程的随机性:在文本生成过程中,模型可能会探索多种可能的输出路径。这种探索过程中的随机性有时会导致生成与预期或实际情况不符的内容。
四、如何应对幻觉
为了减少幻觉的发生,可以有两种类型的策略,一种是提升模型,另一种是使用者添加约束。
提升模型一般有两种手段,分别是:
- 改进模型架构和训练技术:通过改进模型的架构和训练方法,提高模型对数据的理解和处理能力
- 数据质量和多样性:通过使用更准确、更全面的训练数据,减少模型训练过程中的偏差和错误
你会发现针对同一个问题,GPT-4会比GPT-3.5回答的更加准确:(左图:GPT-4 右图:GPT-3.5)
而使用者添加约束,则就是我们这个专栏要做的事情,就是如何编写Prompt让大模型输出符合我们预期的结果。