当 36+57 不再是计算:揭秘 AI 的“概率幻觉”

106 阅读3分钟

当我们打开一个计算器,输入 36 + 57,屏幕显示 93。
当我们打开一个 AI 聊天窗口,输入 36 + 57,屏幕也显示 93。
结果虽然一样,但屏幕背后的“宇宙”却已经发生了天翻地覆的变化。前者是逻辑的必然,而后者,是一场概率的奇迹

硅基世界的两种“思考”

作为一名开发者,我们习惯了计算机的确定性(Determinism) 。在传统的计算机体系结构中,计算是绝对的。

当你在此刻敲下代码 console.log(36 + 57) 时,CPU 内部的算术逻辑单元(ALU)会被激活。电信号穿过由晶体管组成的逻辑门——与门、或门、非门、异或门。电路闭合,二进制位翻转,进位寄存器被标记。这是一个物理过程,只要硬件没有损坏,结果 100% 是 93。在这个世界里,数学是铁律。

然而,当我们把同样的问题抛给大语言模型(LLM)时,它并没有调用那个 ALU。

语言模型的“文本接龙”

AI 并不是在“做算术”,它是在“讲故事”。

对于 LLM 而言,36+57 并不是具有数值意义的数字,它们只是一个个Token(词元) ,和你输入的“今天天气不错”中的汉字没有本质区别。

当 AI 看到 36 + 57 = 这个序列时,它的大脑(神经网络)开始疯狂运转。它检索了训练阶段见过的千亿级别的文本数据,在它的高维向量空间里寻找路径。它在问自己一个问题:

“在 36 + 57 = 这个语境下,下一个最可能出现的字符是什么?”

  • 是 8 吗?概率极低。
  • 是 A 吗?几乎不可能。
  • 是 9 吗?概率无限趋近于 99.99%。

于是它输出了 9。接着,它基于 36 + 57 = 9 这个新上下文,再次预测下一个字符,得出了 3

所以,AI 给出的 93,本质上和它背诵“白日依山尽”是同一个原理。它不是算出来的,是预测出来的。它不是一个数学结论,而是一个概率学结论

为什么这很重要?

理解了“计算”与“预测”的区别,我们就能理解 AI 现阶段迷人的“缺陷美”。

  1. 对于简单问题(36+57): 这种模式在人类语料库中出现过无数次,逻辑链条极短,概率分布收敛得非常完美。所以 AI 看起来像个数学天才。
  2. 对于复杂问题(23489 x 98123): 随着数字变大,具体的算式在语料中从未出现过。此时,概率分布开始变得平坦且模糊。AI 可能会根据数字的“长相”去“幻觉”一个答案——它依然在努力预测,只是这一次,它猜错了。

这就是为什么最先进的 AI 系统(包括 Gemini)在处理复杂数学时,往往不再依赖纯语言模型,而是会去调用外部工具(Code Interpreter)。这就像是一个文科生终于意识到:“与其通过语感去猜这道微积分,不如我掏出一个计算器吧。”

结语

下一次,当你看到屏幕上跳出 AI 的回答时,不妨在心里多一分敬畏。

传统的程序之所以正确,是因为它是被设计成正确的;而 AI 之所以正确,是因为它阅尽了人类知识的沧海桑田后,觉得大概率应该是这样。

36 + 57 = 93。在计算器眼里,这是逻辑的终点;在 AI 眼里,这是概率的巅峰。