人脑与大模型思考方式的不同

6 阅读2分钟

今天在和豆包聊天去简单了解了一下大模型的原理,简单来说就是大模型构建了一个向量空间,类似于一个字典,一个百科全书,而大模型之所以能够根据人的提问来回答,是因为它将人的提问或者是对话上下文转成一个向量,用这个向量去向量空间中匹配最接近的向量。那么如何规定这个最接近,这个就是大模型的预训练,大概就是人工喂数据,然后校验。所以大模型实际上就是一个百科全书,对以往知识经验的调用,无法创造新的知识。

大模型的本质是复读机,我就在想人脑是否也这样,本质是模仿以往的知识,我们的学习就是在模仿,在做数学题的时候,大概的思考方式就是试错,不断尝试之前学过的方法,看是否行得通。我就得出结论,人脑就是对过往知识的调用。新知识的发现不过是人们不断用过往知识试错得到的结果。如果大模型也能掌握这种试错的能力,大模型是否能够达到人脑的程度,后来我发现是不行的,即使有自监督学习或者说物理引擎,它也只是局限于文字数据,不够精细,物理世界太大了,人类都没有探索完,更不可能编码成数据。

那人类与相比,优势只在于人类能够接触物理世界,发现新知识吗。不是的,我发现在自己向豆包提问的过程中,每看到一段回答,我大脑又会产生新的疑问,不断纠正我对这个知识的理解,这种思考自己的思考能力也是大模型没有的,所以我总结出人脑的三个阶段:模仿,试错,反思,后面两种是大模型没有的。大模型没有试错能力在于它永远无法接触真实的物理世界,而反思能力可能是人脑的特定结构。