当AI越做越像“电厂”,我们为什么必须走向类脑智能?

0 阅读5分钟

这几年,人工智能的发展给人一种近乎“狂飙”的感觉。模型越来越大,参数越来越多,算力投入越来越惊人。每当新的大模型发布,人们总会惊叹它在语言、图像、编程等领域的能力又上了一个台阶。但在这场技术竞赛的背后,一个越来越难以回避的问题也逐渐浮现:如果AI的进步必须依赖越来越庞大的算力和能源,那么这种路线还能走多远?

今天主流的人工智能体系,本质上仍然建立在传统计算机架构之上。无论是GPT、BERT还是各种深度学习模型,它们都运行在冯·诺依曼架构之上——计算和存储彼此分离,依靠CPU或GPU进行海量矩阵运算。信息以连续数值的形式被编码,通过海量数据训练和梯度下降算法来不断调整参数,从而逼近某种“最优解”。

这种方法确实创造了惊人的成果,但它也带来了一个明显的趋势:AI越来越像一台巨型统计机器。为了提升能力,唯一被验证有效的路径似乎就是扩大模型规模——更多参数、更多数据、更大的算力集群。这就是所谓的“规模定律”。

然而,规模定律正在逼近现实的边界。训练一次顶级大模型往往需要数万块GPU同时运行,耗费巨额资金与电力资源。换句话说,当AI能力的提升越来越依赖能源与算力的堆积时,它的技术路线实际上已经隐约触及天花板。

这正是类脑智能受到越来越多关注的原因。

与传统AI不同,类脑智能并不是简单地把模型做得更大,而是试图从底层重新设计智能的实现方式。它模仿人类大脑的结构与运行机制,采用神经形态计算架构,将计算与存储融合在一起,通过模拟神经元和突触的连接网络进行信息处理。

在人类大脑中,信息并不是以连续数值的方式传播,而是通过神经元“脉冲”发放的时间差来编码信息。这种被称为“脉冲时序编码”的方式极为高效。正是依靠这种机制,人脑只消耗大约20瓦的功率,却能够完成极其复杂的认知任务。

类脑智能正是试图复现这种机制。它使用脉冲神经网络和神经形态芯片,通过事件驱动的方式处理信息,只有在需要时才进行计算。这种模式带来的直接优势是:能耗极低,效率极高。

如果与传统AI相比,类脑系统的能效理论上可以提升一个甚至两个数量级,也就是说,在某些任务中,功耗可能只有传统AI的十分之一甚至百分之一。

更重要的是,类脑智能在学习方式上也截然不同。

当前的大模型高度依赖海量数据训练。没有足够的数据,它们很难形成稳定的能力。而人类却完全不是这样。一个孩子只需要看到几次猫,就能形成“猫”的概念;即使看到从未见过的猫,也能立即识别出来。

这种能力来自人脑的持续学习机制。神经元之间的连接会随着时间不断变化,通过脉冲时序依赖可塑性(STDP)等机制,大脑可以在动态环境中持续更新知识,而不会轻易遗忘旧知识。

类脑智能正是在尝试复制这种能力。它支持小样本学习、无监督学习以及在线持续学习,使系统能够在真实环境中不断适应变化,而不是依赖一次性的离线训练。

这意味着,类脑系统更有可能实现真正的“终身学习”。它不仅能够识别模式,还能够逐渐形成概念,理解环境,并在不同情境中进行推理。

从这个角度看,类脑智能代表的不只是一次技术升级,而是一种智能范式的转变。

传统AI更像是在构建一台极其强大的统计机器,它可以在海量数据中寻找规律,但很难真正理解世界。而类脑智能试图打造的,则是一种具有感知、学习与适应能力的系统,让人工智能逐渐接近人类认知的方式。

也正因为如此,越来越多的研究机构和产业界开始将类脑智能视为下一代AI的重要方向。各国都在布局神经形态计算和类脑芯片,中国也将类脑智能纳入“科技创新2030”重大项目。近年来,一些类脑系统和脉冲神经网络模型也已经开始出现初步突破。

当然,这条道路并不轻松。人类对大脑的理解仍然非常有限,类脑模型在生物合理性与工程可实现性之间仍需不断平衡。类脑芯片的规模化生产、软件生态与算法工具链也还在早期阶段。

但即便如此,一个趋势已经越来越清晰:如果人工智能想真正迈向通用智能,仅靠堆算力并不够。

真正的突破,可能来自对大脑工作方式的重新理解。

当AI不再只是“更大的模型”,而是开始学会像大脑那样思考、学习和适应时,人类也许才真正站在了通用人工智能时代的门口。

而类脑智能,很可能就是那把钥匙。

公众号:OpenSNN