用于深度学习的神经形态芯片“能效提高 16 倍”

1,370 阅读4分钟

随着研究的不断深入,神经形态芯片已经得到了广泛认可,这也意味着在运行大型深度学习网络时,我们能够使用比非神经形态硬件更节能的方式。

随着人工智能采用率的增长,神经形态芯片的应用变得非常重要。

这项研究由奥地利格拉茨科技大学 (TU Graz) 的理论计算机科学研究所使用英特尔的 Loihi 2 硅芯片进行,这是英特尔实验室去年宣布的第二代实验性神经形态芯片,拥有大约一百万个人工神经元。

他们在 Nature Machine Intelligence 上发布了名为《A Long Short-Term Memory for AI Applications in Spike-based Neuromorphic Hardware》的研究论文,论文指出,英特尔芯片在深度学习任务中的能效比执行相同任务在非神经形态硬件上高 16 倍 。 测试的硬件由 32 个 Loihi 芯片组成。

虽然专业硬件在深度学习任务中效率更高似乎并没有令人惊讶,但TU Graz声称这是第一次在实验中证明这一点。

根据 TU Graz 的说法,这很重要,因为这种深度学习模型是全球人工智能研究的主题,是为了部署现实世界的应用。但问题是运行这些模型所需要的硬件能耗是这类系统更广泛应用道路上的一个主要障碍。

这一点与发表在《自然》杂志上的另一篇论文《大脑启发的计算需要一个总体规划》类似,作者在论文中指出,像深度思维的AlphaGo和AlphaZero这样的高端人工智能系统取得的惊人成就,需要数以千计的并行处理单元,每个处理单元可以消耗大约200瓦。

德克萨斯州格拉茨大学理论计算机科学研究所的博士生菲利普·普兰克说:“我们的系统比传统硬件上的其他人工智能模型节能4到16倍。”并且他补充说,下一代Loihi硬件可能会进一步提高效率。

在英特尔和人脑项目资助的TU Graz报告中,研究人员使用了涉及时间过程的算法。给出的一个例子是,系统回答关于先前讲述故事的问题,或者从上下文中把握对象或人之间的关系。

在这方面,该模型模拟了人类的短期记忆,或者至少是被认为在人脑中使用的一种假定的记忆机制。研究人员将负责短期记忆的反馈神经网络和前馈网络联系起来,以确定发现的哪些关系对于解决手头的任务很重要

英特尔神经形态计算实验室主任迈克·戴维斯表示,像Loihi芯片这样的神经形态硬件非常适合在大脑中观察到的快速、稀疏和不可预测的网络活动模式,也是最节能的人工智能应用所需的模式。

我们与TU Graz的合作提供了更多证据,以证明神经形态技术可以从生物学的角度重新思考它们的实现,从而提高当今深度学习工作量的能效。

  • 英特尔的神经芯片有一天可能会应用到个人电脑或云服务中
  • 麻省理工学院、亚马逊、台积电、ASML和朋友们将致力于非地球杀手的人工智能硬件
  • 美国国防部高级研究计划局将现金投向“围栏”项目--这是一种只在像素变化时才发送图片的智能相机
  • 亲爱的芯片设计者:使用这些CPU内核将不再花费您的一大笔钱(好吧,至少一开始不会……)

高德纳负责新兴技术和趋势的副总裁艾伦·普里斯特利(Alan Priestley)也认为,神经形态芯片有被广泛采用的潜力,这在一定程度上要归功于它们的低功耗要求。

他告诉我们:“鉴于目前的人工智能芯片设计在合理的功率范围内提供必要的性能所面临的挑战,将需要神经形态计算等新架构,我们已经看到一些初创公司为极低功耗的终端设计开发神经形态芯片设计-包括集成到传感器模块和基于事件的摄像头中。”

英特尔表示,其神经形态芯片技术可能会在某个时候集成到CPU中,为系统添加高能效的人工智能处理,或者访问神经形态芯片可能会作为云服务提供。