定义:幻觉是指在没有外部刺激的情况下产生的具有强烈真实感的感知。(参考:维基百科)
简单来说,幻觉就是一种不真实的感知,但却感觉非常真实。
对于人类而言,幻觉的根源在于病理学和心理学领域。它被定义为一组体验,即一个人感知到实际上并不存在的事物。在人类中,幻觉可以影响感官,包括:
听觉幻觉: 听到并不存在的声音。
视觉幻觉: 看到实际上并不存在的事物,例如物体或人。
嗅觉幻觉: 闻到没有外部来源的气味。
味觉幻觉: 品尝到实际上并不存在的味道。
幻觉可能由多种因素引起,包括心理健康状况、神经系统疾病、药物滥用或极度的压力和疲劳。
LLM 中的幻觉
近年来,大型语言模型(LLM)在各个领域的广泛应用,将AI集成到产品提供了无数可能。然而,在此过程中,理解 LLM 中的幻觉及变得至关重要。
在自然语言处理(NLP)领域,幻觉通常指生成的内容显得不合逻辑或与提供的源内容不一致(Filippova, 2020; Maynez 等, 2020)。
LLM 幻觉 — 参考 #2(大型语言模型中幻觉的调查:原理、分类、挑战和开放性问题,Huang 等)
LLM 中幻觉的分类
最初,LLM 幻觉被分为两类:
内在幻觉: LLM 生成的输出与源内容相矛盾。例如,在下面的示例中,生成的摘要 “2021 年批准了第一种埃博拉疫苗” 与源内容 “2019 年 FDA 批准了第一种埃博拉疫苗” 相矛盾。
外在幻觉:LLM 生成的输出无法从源内容中验证(即输出既不能被支持也不能被源内容反驳)。例如,在下面的示例中,信息 “中国已经开始 COVID-19 疫苗的临床试验” 在源内容中没有提及。我们既不能从源内容中找到生成输出的证据,也不能断言它是错误的。值得注意的是,外在幻觉并不总是错误的,因为它可能来自事实正确的外部信息。这种事实性幻觉可能是有帮助的。然而,在大多数文献中,外在幻觉仍然被谨慎对待,因为这种额外信息的不可验证性增加了风险。
抽取式摘要 — 参考 #1(自然语言生成中幻觉的调查,Ji 等)
最近,LLM 强调以用户为中心的交互,其幻觉出现在事实层面。考虑到这一点,Huang 等人在他们的论文 “大型语言模型中幻觉的调查:原理、分类、挑战和开放性问题” 中引入了一个更细致的幻觉分类,如下所示:
幻觉的类别
事实性幻觉
现有的 LLM 经常表现出产生与现实世界事实不一致或具有误导的结果的倾向。这给人工智能的可信度带来了挑战。在这种情况下,这种错误被归类为事实性幻觉。
根据生成的事实内容是否可以与可靠来源进行验证,它们进一步分成以下两种类型:
事实不一致 — 指 LLM 的输出包含可以基于现实世界信息的事实,但存在矛盾。这种幻觉最常见,源于 LLM 对事实知识的捕获、存储和表达。如下例所示,当被问及 “第一个登上月球的人” 时,模型错误地生成了 “尤里·加加林”,这与现实世界事实相矛盾。
事实捏造 — 在此情况下,LLM 的输出包含无法与既定现实世界知识验证的事实。如下例所示,虽然 “独角兽的起源” 传统上缺乏实证依据,但模型却捏造了一个合理的独角兽历史起源。
事实性幻觉的类型 — 参考 #2(大型语言模型中幻觉的调查:原理、分类、挑战和开放性问题,Huang 等)
忠实性幻觉
LLM 默认接受用户提供的指令。随着 LLM 的使用逐渐转向以用户为中心的应用,确保其与用户提供的指令一致性变得至关重要。此外,LLM 的忠实性还体现在其生成内容的逻辑一致性上。从这个角度来看,Huang 等人将忠实性幻觉分为以下三个子类型:
指令不一致 — 在这种类型的幻觉中,LLM 的输出偏离了用户的指令。虽然一些偏差可能符合安全指南,但这里的不一致表明与用户指令的无意对齐。如下例所示,用户的实际意图是翻译,但 LLM 错误地偏离了用户的指令,执行了问答任务。
上下文不一致 — 这些幻觉是指 LLM 的输出与用户提供的上下文信息不一致。如下例所示,用户提到尼罗河的源头在中非的大湖地区,但 LLM 的回答与上下文相矛盾。
逻辑不一致 — 在这种类型的幻觉中,LLM 的输出显示出内部逻辑矛盾,特别是在其推理任务中。因此,不一致出现在推理步骤之间以及步骤与最终答案之间。如下例所示,虽然将方程两边都除以 2 的推理步骤是正确的,但最终答案 x=4 与推理链不一致,导致了错误的结果。
忠实性幻觉的类型 — 参考 #2(大型语言模型中幻觉的调查:原理、分类、挑战和开放性问题,Huang 等)
参考文献
自然语言生成中幻觉的调查 — Ji, Ziwei 和 Lee, Nayeon 和 Frieske, Rita 和 Yu, Tiezheng 和 Su, Dan 和 Xu, Yan 和 Ishii, Etsuko 和 Bang, Ye Jin 和 Madotto, Andrea 和 Fung, Pascale
大型语言模型中幻觉的调查:原理、分类、挑战和开放性问题 — Lei Huang 和 Weijiang Yu 和 Weitao Ma 和 Weihong Zhong 和 Zhangyin Feng 和 Haotian Wang 和 Qianglong Chen 和 Weihua Peng 和 Xiaocheng Feng 和 Bing Qin 和 Ting Liu
注:本技术博客的大部分内容参考了上述两篇论文。