AI大模型幻觉是什么?为什么会“幻觉”?一篇让你秒懂的大白话文章!

266 阅读2分钟

什么是大模型幻觉?

大模型幻觉(Al hallucination 或 Model Hallucination)是指Al基于概率生成的"自信型错误",输出看似合理但完全失实的内容,像极了人类"不懂装懂"的样子。

图片

→AI一本正经地胡说八道

→像学霸写作业时「虚构参考文献」

→明明不知道,偏要假装很懂(dbq,有点茶了)

→用概率拼凑出"看似合理"的错误答案(哼,还自带理直气壮的气场)

图片

大模型幻觉的分类

从学术界的共识来看,大模型的幻觉可以分成两大类:

事实性的幻觉:包括事实不一致和捏造事实两类。

忠实性的幻觉:包括不遵循指令和不遵循上下文两类。

图片

经典翻车案例

伪造名人名言(莎士比亚根本没说过这话!)

编造历史细节(秦始皇用iPhone?离大谱)

虚构科学结论("研究表明吃土能减肥"??)

GPT编造《史记·气候志》解读全球变暖(史记里真的会写这些吗)

某医疗AI虚构“国际期刊论文”推荐药品(医疗领域就有点儿严重了哦)

图片

为什么会"幻觉"?

简单介绍:

数据偏差: 训练语料中的矛盾/错误信息

过拟合: 对模糊问题强行自圆其说

创造性"溢出" : 文本生成>事实核查

技术原理:

概率生成机制:

大模型本质是“文字接龙冠军”,根据上文预测概率最高的词,但高概率≠高真实(比如"李白是__ "可能生成“唐朝诗人”或“星际战舰指挥官”)

图片

自回归生成陷阱:

每次生成1个token(字词)时,细微误差会像"传话游戏"一样累积,最终导致答案偏离事实(例如把“量子物理”误导向“玄学”)

注意力机制漏洞:

AI通过注意力权重关联关键词,但可能过度联想(例如“疫苗”→“新冠”→“比尔盖茨”→阴谋论伪逻辑链)

避坑指南

温度系数调整

控制生成随机性(temperature参数调低至0.3-0.7),减少天马行空,后续会专门介绍温度系数,这是大模型非常重要的一个参数;

图片

知识边界声明:

提示词加锚点限制范围:“请仅基于XXX条文回答,不确定请说明”、“请基于可靠来源回答”,能一定程度上避免幻觉现象,但不能做到100%避免;

代码幻觉防御:

开发时用RAG(检索增强生成),实时接入数据库/知识图谱修正结果

【冷知识】技术越强,幻觉越具欺骗性!

GPT-4的幻觉率比GPT-3.5低15%,但依然可能把"不存在的研究"写得像Nature论文

图片

AI大模型全套学习资源【点击蓝字获取】