现在大模型的发展迅速,包括图灵测试的通过、 OpenClaw 的推出、机器人的更灵活,让人有一种感觉,AI 的发展越来越快,最终会很快导向完全的人工智能,有思维、有创造、有记忆、有主体性的AGI。因为在 OpenClaw 的加持下,AI已经可以表现为,有一定时间的持续记忆跟有一定的主动性,并且随着各大公司推出思考模式,结果也会越来越准确。
我也天真的以为AI时代会很快的到来,当算力足够大,它会涌现出一种类人主体性。比如,赋予它核心使命,它可以带着核心使命去完成你这个任务。核心使命和底层规则就像人类的 DNA(保证生存与繁衍) 一样,指导AI的运行。最终可以做出跟人类一样的行为,导向最终的结果,能达成的结果就是一种明证。
最近,我的想法是有了一定的变化。
我们现在主要使用的这些大模型主要还是 LLM 模型,它其实还是自回归预测,当前一个词出来的时候,去预测下一个词是什么。transform 这个框架, 是进行大规模向量并行处理的向量计算,增加了预测的效率。
现在的思考模式主要有以下几条的加持。第一个是思维链的加持,对任务进行分解,再逐步去调用AI。第二个是强化学习的加持,LLM会做不同路径预测,然后通过打分得到最合适的一条。第三个是自我修正。总结下来,LLM模型还是通过大量数据灌输蒸馏得到的最符合人类语义的结果。
LLM有有缺陷的几个点在于:
第一、模型的学习能力需要海量数据灌输,而不是基于因果率, 对于人类的世界是完全不了解的。人类可以通过下雨推理出要带伞,而AI需要海量数据去总结出这一点,这种效率是极低的。
第二、无法进行创造型工作,只有人类有的语义它才能提取出规律,它所有的了解的东西都是在人类已经了解的基础上去统计拟合才能出来的,人类世界不存在的内容,它是无法去探索的。有新的事物,新的危险,他是不能够自如应对的。
第三、LLM是静态的。它是基于语料训练的,一旦训练完之后它的版本就固定了,除非拿到新的语料再去训练,再去蒸馏,否则它就难以去学到新知识。它缺乏自我的学习能力,它的学习能力必须是有大数据跟人类监督的时候才能进行学习,而不是说自主动的一种学习。
第四、还有LLM模型缺少连续统一的记忆,记忆文件随时可能被复写,这就导致危险度很高。每次推理都是从零开始重新调用的,就代表没有其本心内核。如果封存其记忆文件,完全放任其自我进化,缺乏监管是很危险的。
第五、就算给了LLM完全自我进化的自由,LLM也没有自我意识,就算有使命驱动,它也只知道要做这件事,不知道为何要做这件事。它并不是出于真心去做的,缺少使命感,缺少价值判断,只是人类底层代码让它去做这件事情,但是底层代码如果没有考虑到的问题,它就处理不了。它不能做决定,只有优先级,无法开创第二条曲线。
所以笔者认为 LLM 模型难以生成真正的有思维的AI,就算有使命驱动,不过是没有脑子的"僵尸智能"罢了。
《西部世界》一中给出了,其经历是host诞生基石,痛苦是其成长的道路的一种解法。仔细考虑过来,也只是虚幻的想象,痛苦也只是表现出痛苦,而不是其内心感受。意识的来源目前还没有科学的说法。
AI模型的其他道路也在不断的发展。
Alphago最终打败人类顶级棋手,也不是基于LLM模型,而是基于卷积神经网络。卷积神经网络可能发展的慢一些,但最终导向AGI的大脑可能更实在一些。 LLM 模型语料用尽未必不是一件好事,能够推动其他模型的发展。
1、用”世界模型“去构建物理规律和因果推理的抽象理解。
2、构建AI 的目标价值体系
3、和机器人结合构建具身智能
这些模型最终整合到一起才更强大。
这些让我重新思考人类的意识传承,人类的遗传相当于遗传”世界模型“生存的必备技能,而知识这种习得的技能,是人类按需选择的。
人类的诞生确实是很伟大的。