AI数据中心热潮引发Switch 2内存短缺

4 阅读3分钟

AI热潮正波及Switch 2

数据中心正在消耗大量的计算资源,并推动芯片制造商转向生产AI级内存,这收紧了任天堂和其他硬件制造商的供应。

任天堂Switch 2和人工智能数据中心在外观上毫无相似之处。然而,它们都依赖于同一个关键组件——动态随机存取存储器(DRAM)。这是计算机中的高速工作内存,使它们能够运行当今的应用程序。某机构和某机构等云计算巨头正以数据中心的规模购买内存硬件,以构建AI集群,从而收紧了其他所有厂商的供应。这其中就包括任天堂。

在周二的财报电话会议上,任天堂总裁古川俊太郎表示,内存价格上涨并未对本财年的业绩产生显著影响,但他警告称,如果价格持续走高,成本可能会开始侵蚀利润。随后,该公司股价在东京市场一度暴跌近11%。

DRAM的工作原理

DRAM以微小电荷的形式存储数据位。这些电荷会泄漏,系统会不断地刷新它们。可以把它想象成一块白板,上面的笔迹会随着时间褪色,系统则不停地描摹同样的文字,使其保持可读。电子游戏依赖这种能力来保持游戏运行的流畅和响应。例如,像Switch 2这样的游戏主机,将DRAM用作一个暂存区,来存放处理器和图形芯片接下来需要的任何数据,从光照和角色位置,到动画 timing 和碰撞计算。

根据某机构在5月发布的规格分析,Switch 2使用了12GB的LPDDR5X内存。这是一种移动设备友好的标准DRAM,旨在快速移动大量数据,同时不会过快耗尽掌上设备的电池电量。

AI数据中心对内存的需求

AI数据中心同样需要DRAM,但需求量巨大。它们的服务器为中央处理器配备了标准DRAM,这些处理器负责调度工作和在系统中移动数据等任务。而运行AI的计算密集型芯片——通常是某机构的图形处理器——则需要另一种由DRAM制成的内存,称为高带宽内存(HBM)。

HBM是为满足AI加速器芯片的海量数据需求而设计的DRAM。为了制造HBM,制造商将DRAM芯片垂直堆叠,并通过蚀刻在硅片上的微小通道连接起来,这些通道在层间传输信号。HBM紧挨着加速器放置,并以足够快的速度向其输送数据,以保持芯片持续计算。

为何不生产更多DRAM?

问题在于,制造商无法在一夜之间提高内存产能。HBM和消费级DRAM源于相同的原始硅材料,并共享大部分相同的供应链。但HBM还需要专门的封装技术,并且价格更高,因此制造商优先生产这些面向AI的内存产品。

行业领袖已警告称,供应链紧张可能会持续到明年;这些限制将影响像Switch 2这样的消费类硬件能够轻松达到的性能水平。某机构和某机构等芯片制造商正试图缩小DRAM的供需缺口,但这些项目需要数年时间。在此之前,任天堂和其他设备制造商只能消化成本、提高价格、精简捆绑包——或者悄悄地权衡技术规格。FINISHED