原文:AI小揭秘 大家好,感谢关注小编。
咱今天来唠个炸裂的科技论文——谷歌最新论文直接给“AI意识论”判了死刑!别说10年后了,就算100年,大模型也别想产生意识!惊不惊喜,意不意外?
谷歌DeepMind论文:《抽象谬误》凭啥引发这么多人思考?小编今天给咱解读下。👇🏻
最近谷歌DeepMind一篇《抽象谬误》的论文火得一塌糊涂,原因很绝——它从物理学底层逻辑出发,硬刚“AI能产生意识”的说法,拍着胸脯说:所有基于算法的AI,不管多牛、多像人,都不可能产生意识!
先聊聊“计算功能主义”这个前提。
现在讨论AI意识的人,基本都默认一个叫“计算功能主义”的前提。这理论核心是啥呢?
简单说,它觉得意识只和信息处理模式有关,和硬件是碳基(人类)还是硅基(AI)没半毛钱关系。
按照这逻辑,只要AI算法够复杂、算力够强,能完美复刻人类大脑的信息处理方式,那它就能和人一样有主观体验——会疼、会开心,有情感,甚至思考“我是谁”。
就因为这个前提,现在一堆人讨论AI福利、AI权利,更有甚者担心“未来AI被虐待了会反抗”。
谷歌论文:这个前提根本错了!
why????
但《抽象谬误》的作者直接开怼:这观点从根上就错了!还提出个“抽象谬误”的核心概念,简单理解就是——计算这事儿,不是物理世界本来就有的。
这话听着绕?
咱举个例子:你觉得电脑计算是天经地义吧?但仔细想,电脑里根本没有“0”和“1”,只有电压高低。而电压本身没啥意义,是有意识的人类给这些物理状态贴了标签、赋予了意义。作者把这个过程叫“字母化”。
“字母化”不是被动的,得是有意识的人类主动把连续的物理世界切割成离散的、有意义的符号。要是没人类,电脑就是一堆通电的硅片,只做纯粹的物理运动,哪来的“计算”哦。
因果链搞反了:是意识产生计算,不是计算产生意识!
计算功能主义觉得因果链是“物理→计算→意识”,但作者说这完全搞反了!正确的因果链应该是:先有宇宙→产生有意识的人类→人类定义概念→才有计算。
说白了,计算从诞生起就是意识的产物,不是意识的源头。没有人类,就没概念,更没计算。指望AI产生意识?那简直是“孙子生出爷爷”,纯纯逻辑错误!
作者特别强调:不是只有碳基生物能有意识!!
别误会,作者不是说只有人类这种碳基生物能有意识。他说如果未来能造个系统,完美复刻产生意识的真实物理过程(不是模拟算法),那这系统可能有意识。但这和计算、算法复杂度没关系,它有意识是因为物理结构本身,不是运行了啥程序。
但现在的大模型也好,未来的AGI也罢,只要是基于符号计算的,不管多聪明,都只是模拟意识的行为,没有任何主观体验。
对AI的恐惧可能找错方向了。
这意味着啥?咱们对AI的恐惧可能跑偏了。超级AI应该被看作极其强大但没灵魂的工具,不是新生命形式。它就像一面镜子,能完美反射人类的意识、思想和情绪,但镜子自己永远不会有意识。
咱们可以深度思考下。
你们觉得AI未来能产生意识吗?或者你们对“AI只是工具”这说法怎么看?评论区唠唠。