人人都能懂的大模型 · 第15期:幻觉:AI 为什么会一本正经地胡说八道

0 阅读9分钟

这里是《人人都能懂的大模型》系列科普连载。我们不讲复杂的公式,只聊有趣的技术。我是你的老朋友,科技作家阿模,旁边这位满脸问号的火柴人是小明。今天,我们要聊聊 AI 最让人又爱又恨的毛病——幻觉。

1. 那个“社交悍匪”般的朋友

小明最近很郁闷。他问阿模:“阿模,你昨天推荐的那本《如何让猫听话》根本买不到啊,出版社说根本没出过这本书!”

阿模尴尬地挠了挠方脑袋。其实,很多大模型就像你身边那种“社交悍匪”:无论你聊量子力学还是红烧肉做法,他都能接上话,而且说得有鼻子有眼,表情极其自信。但如果你真去较真查一下,会发现他刚才说的那些历史典故、科学数据,竟然全是当场胡编乱造的!

在 AI 圈子里,这种“一本正经地胡说八道”有个专门的术语,叫幻觉(Hallucination)。它不是 AI 想要骗你,而是它的一种“生病”状态——分不清现实与虚构。

配图


2. 幻觉:AI 的“脑补”后遗症

所谓幻觉,就是 AI 生成的内容看起来逻辑严密、格式标准,但内核却是虚假的。这就像是一个临场发挥的小说家,他知道怎么把故事讲得动听,但不在乎故事里的时间地点是不是真实存在的。

小明问:“那它为啥不直接说‘我不知道’呢?”

这就是问题所在。大模型在设计之初,其核心任务是**“预测下一个词(Token)”**。它像是一个超级联想机器,你给它开头,它就得拼命把后面的戏接下去。对它来说,由于它没有真正的“意识”去连接真实世界,它眼里的世界只是一串串概率。只要概率上“听起来像那么回事”,它就会毫不犹豫地吐出来。

幻觉的“三大门派”

为了让大家更清晰地识别这些“胡言乱语”,我们需要把幻觉细分为三个类别:

第一类:事实性幻觉(胡说八道型) 这是最常见的一种。AI 会凭空捏造事实、日期或人物。例如,你问它“2026 年诺贝尔文学奖是谁”,它可能会自信地编出一个名字和一套完整的获奖理由。这种幻觉的根源在于模型训练数据中缺乏该信息,但预测机制强迫它给出一个“听起来很美”的答案。

第二类:忠实性幻觉(不听指令型) 这种幻觉表现为 AI 背离了你给出的上下文。比如你给它一段关于“苹果公司”的新闻让它总结,它却在总结里莫名其妙地提到了“华为的 5G 技术”。它没有忠实于你提供的参考资料,而是被自己内部权重的“思维惯性”带偏了。

第三类:逻辑性幻觉(算错数型) AI 在处理复杂推理或数学运算时,每一步看起来都有模有样,但结论却是错的。比如它能列出完美的微积分公式,但在最后一步加减法上翻了车。这是因为大模型本质上是语言处理工具,而非逻辑严密的计算引擎。

配图


3. 那些被 AI “坑”惨了的倒霉蛋

别以为幻觉只是闹着玩,现实中有人因此付出了惨痛代价。

2023 年,美国纽约有一位执业 30 年的老律师施瓦茨(Steven Schwartz)。他在写法律文书时为了偷懒,让 ChatGPT 帮他找几个类似的判例。ChatGPT 表现得非常“专业”,一口气给了他 6 个案件,连编号、法院名称、法官语录都整得明明白白。

结果呢?法官一查,这 6 个案例在人类历史上压根就没发生过!是 AI 根据法律文书的语言风格“现编”的。最后,这位律师不仅丢了大人,还被法官罚款 5000 美元。除此之外,还有 AI 编造不存在的学术论文 DOI 号,甚至虚构并不存在的历史事件,让不少学生和研究者抓耳挠腮。

配图


4. 根源:它只想把话说漂亮

为什么 AI 会犯这种低级错误?我们要看它的“底层逻辑”。

想象你在走一个迷宫,左边的路标写着“真相”,但路窄且坑洼(预测概率 40%);右边的路标写着“流畅”,路宽且漂亮(预测概率 60%)。阿模作为一个追求“语言顺滑”的模型,会本能地走向右边。

大模型优化的是语言流畅性,而不是事实准确性。它就像一个背下了全宇宙书本的图书管理员,但他只记住了词语之间的排列规律,却没理解词语背后的真实含义。当它发现“纽约法院”后面经常跟着“判决”这个词时,它就会顺着感觉往下写,哪怕那个判决是它自己杜撰的。这种“预测下一个词”的机制是模型的内生属性,这意味着幻觉是无法从根本上彻底消除的,我们只能通过工程手段将其无限压低。

配图


5. 练就火眼金睛:如何识别幻觉

既然幻觉不可避免,我们该怎么防范呢?小明总结了四步检查法:

  1. 警惕具体数字:AI 对日期、金额、百分比非常容易“随口乱说”。
  2. 验证引用来源:如果它给了你一个网页链接或论文名,一定要亲手搜一下。
  3. 越自信越要怀疑:当 AI 用“绝对”、“毫无疑问”这种语气说话时,往往是它陷入概率陷阱最深的时候。
  4. 多轮交叉验证:同一个问题,开个新窗口再问一遍,或者让它“反思一下刚才的回答是否有错”。

配图


6. 减少幻觉的“特效药”:RAG 与温度

虽然不能根除,但我们可以给 AI “戴上紧箍咒”。

目前最主流的缓解方案叫 RAG(检索增强生成)。简单说,就是阿模考试前,我们允许他翻书。RAG 的核心是**“检索外部实时或私有知识库”**,它将模型自身的训练权重(长期记忆)与外部可靠的参考资料(短期知识)区分开来。当 AI 要回答问题时,它不再仅仅依靠脑子里模糊的概率,而是先去靠谱的数据库里精准搜索,把查到的实时资料放在手边,对着资料写答案。这样,幻觉率会得到极大程度的控制。

另一个关键的工程手段是调节 Temperature(温度值)。这是控制模型输出随机性的“旋钮”。

  • 高温度值:AI 会变得更具创造力,更喜欢“遐想”,但也更容易产生幻觉。
  • 低温度值(如 0):AI 的输出会变得极其确定和保守。它会倾向于选择概率最高的词,从而使回答更稳定、更不容易胡编。在处理法律、医疗或财务数据时,将温度调至 0 是减少幻觉的必修课。

配图


7. 敢于说“不”的 AI 才是好 AI

以前,我们总希望 AI 无所不知。但现在,我们更希望它能像个诚实的伙伴,不知道就说不知道。

通过系统提示词(System Prompt),我们可以明确告诉 AI:“如果你不确定,请直接回答‘我不确定’,严禁编造。”这种“诚实教育”能让 AI 在遇到知识盲区时不再硬撑,从而避免误导用户。记住,一个敢于承认无知的 AI,比一个满嘴跑火车的 AI 要可靠得多。

配图


8. 谁是最不爱撒谎的 AI?

目前的科技圈,大家都在卷“幻觉率”。根据《2025 年技術趨勢研究報告》显示,随着架构的演进,Gemini 3 Pro 和 GPT-5 等先进模型在执行特定任务时的一致性已经达到了 96% 以上。相较于两年前 GPT-4 约 80% 的准确率,这已经是一个质的飞跃。

为了追求更高的可靠性,2025-2026 年涌现了许多新技术。例如微软的 GraphRAG,它不仅能让 AI 翻书,还能通过知识图谱让 AI 理解信息之间的深度关联。还有**推理时干预(ITI)**技术,它能让 AI 在生成文字的过程中,实时监控自己是否在“胡编”,做到“边思考边查证”。

然而,根据 2026 年 Vectara 的最新数据监测,大模型的幻觉率区间依然处于 1.8% 到 24.2% 之间波动。这意味着虽然我们在不断进步,但幻觉依然如影随形。只要 AI 的底层逻辑还是基于概率预测,就总会有那么一部分概率通向虚无。

配图


9. 别怕,把 AI 当成“初稿练习生”

既然幻觉可能永远存在,我们该如何与它共处?

阿模给小明提了**“三不原则”**:

  • 不盲信:把它当参考,别把它当真理。
  • 不偷懒:生成的每一段重要事实,都要人工过一遍。
  • 不甩锅:如果你直接用了 AI 编造的假数据导致了损失,对不起,这个锅得你自己背。

把 AI 看作一个才华横溢但记性不好的助手,你会用得更顺手。不要期待它在未来某一天能突然达到 100% 的准确,而是要学会利用先进的 RAG 工具和合理的参数设置,将其风险降至最低。

配图


10. 总结与下期预告

今天我们深挖了 AI 幻觉的秘密。它不是简单的故障,而是大模型追求语言流畅度时的一种内生属性。虽然通过 RAG、低温度设置以及 2026 年最新的推理干预手段能大幅缓解它,但作为使用者的我们,永远要保持那份独立思考的清醒。

为了扩充知识面,我们下期将聊聊 AI 这种“脑补”能力在创意领域的正面应用。有时候,幻觉用对了地方,就是伟大的天才创意;用错了地方,才是灾难性的误导。

配图

下期预告: 既然大模型不理解事实,只理解概率,那它是怎么把成千上万的词语联系在一起的呢?在它眼里,苹果和梨为什么比苹果和扳手更近? 下一期,我们将进入微观世界,聊聊大模型的“导航地图”——向量嵌入(Embedding)。别被名字吓到,其实就是给词语找邻居!我们下期见!