过去两年,英伟达崛起是科技领域的一个经典案例。通过CUDA系统,他们创建了一个使用GPU进行机器学习的开发者生态系统;通过Mellanox,他们成为了数据中心网络的领导者。然后,他们将所有硬件集成到服务器中,提供垂直集成的算力一体机。
凭借这一系列组合性技术优势,英伟达在“AI淘金热”中提供的铲子占据行业核心地位,这导致它成为有史以来最成功的公司之一。随之而来的是,不少挑战者入局以求从英伟达主导的市场分一杯羹。半导体行业的竞争愈加热烈。
在此背景下,AI半导体研究专家Austin Lyons与Eric Flaningam从AI与GPU行业的背景知识切入,结合当前AI半导体生态系统,通过行业关键数据,对未来发展趋势进行了深入分析。
(本文由OneFlow编译发布,转载请联系授权。原文:www.generativevalue.com/p/the-ai-se…
来源 | Eric Flaningam、Austin Lyons
翻译|张雪聃、林心宇
OneFlow编译
题图由SiliconCloud平台生成
1
AI加速器的背景知识 从一个非常宏观的角度看,所有逻辑半导体都包含以下组成部分:
-
计算核心——执行实际的计算操作。
-
存储器——存储要传递给计算核心的数据。
-
缓存——临时存储可快速检索的数据。
-
控制单元——控制并管理其他组件的操作顺序。
传统情况下,CPU是一种通用计算机,设计用于执行任何计算任务,包括复杂的多步流程。如下图所示,CPU具有更多的缓存、更强大的控制单元以及更小的计算核心(即CPU中的算术逻辑单元,ALU)。
另一方面,GPU专为处理大量小型计算任务或并行计算而设计。最初,GPU用于图形处理,需要同时进行大量的小型计算以生成显示内容。这种基础架构非常适合AI的工作负载。英伟达率先通过早期的GPU引入可编程着色器,并推出CUDA,使所有GPU都能成为可编程计算机。
为何GPU如此适合AI?
大多数AI模型的基本单元是神经网络,其结构由多层节点组成。这些节点通过加权处理,尽可能准确地表示训练数据的特性。
当模型完成训练后,可以输入新的数据,模型则会预测输出结果(即推理)。
这种“数据传递”涉及大量的小型计算,主要以矩阵乘法的形式实现:(某一层的节点与权重)×(另一层的节点与权重)。
矩阵乘法是GPU的强项,因其具备出色的并行处理能力。 ————————————————
版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。