AWS与NVIDIA携手扩大合作 推动生成式AI技术革新

131 阅读2分钟

近日,亚马逊云服务(AWS)与英伟达(NVIDIA)在AWS re:Invent大会上宣布,双方将显著加强战略合作关系。此次联盟的宗旨,在于为客户提供尖端基础设施、软件以及服务,以点燃生成式人工智能创新的火花。

此次合作汇集了两家公司的强项,融合了NVIDIA最新的多节点系统、下一代图形处理单元(GPUs)、中央处理单元(CPUs)以及人工智能软件,同时也利用了AWS的技术,比如Nitro System的先进虚拟化技术、Elastic Fabric Adapter (EFA) 的互连技术以及UltraCluster的可扩展性。

合作扩展的几大亮点包括:

  1. 在AWS上推出NVIDIA GH200 Grace Hopper Superchips:
    • AWS成为首个提供NVIDIA GH200 Grace Hopper Superchips,并配备新型多节点NVLink技术的云服务提供商。
    • NVIDIA GH200 NVL32多节点平台使得联合客户能够扩展到数千个GH200 Superchips,提供超级计算机级别的性能。
  2. 在AWS上托管NVIDIA DGX云服务:
    • 双方合作,在AWS上托管NVIDIA DGX云服务,这是一项AI训练即服务,特点是使用GH200 NVL32加速生成式AI和大型语言模型的训练。
  3. Ceiba超级计算机项目:
    • 双方合作开发世界上最快的GPU驱动AI超级计算机项目Ceiba,该计算机配备了16,384个NVIDIA GH200 Superchips,处理能力高达65 exaflops。
  4. 推出新的Amazon EC2实例:
    • AWS推出三种新的Amazon EC2实例,包括搭载NVIDIA H200 Tensor Core GPUs的P5e实例,用于大规模生成式AI和高性能计算(HPC)负载。
  5. 软件创新:
    • NVIDIA在AWS上推出软件,如用于聊天机器人和摘要工具的NeMo Retriever微服务,以及加速药物发现的BioNeMo,服务于制药公司。

这次合作标志着双方共同致力于推进生成式人工智能领域,为客户提供前沿技术和资源。

在内部,亚马逊机器人和履行团队已经使用 NVIDIA 的 Omniverse 平台在实际部署之前首先优化虚拟环境中的仓库。

NVIDIA与AWS技术的整合将加速开发、训练和推断大型语言模型及生成式AI应用程序在各个行业中的应用。

如果你觉得这篇文章写得不错,欢迎点赞、关注、转发支持一下!非常感谢你的阅读和支持!