Supermicro采用新一代系统和机架架构以扩大人工智能优化产品组合
2024-03-21 08:42:00 EETOP适用于大规模 CSP 和 NSP 的强大节能解决方案将结合全方位下一代 NVIDIA GPU 和 CPU,以及 NVIDIA Quantum X800 平台和 NVIDIA AI Enterprise 5.0
加利福尼亚州圣何塞2024年3月21日 /美通社/ -- 在 2024 年 NVIDIA GPU 大会上,人工智能、云、存储和 5G/边缘的整体 IT 解决方案提供商 Supermicro, Inc.(纳斯达克股票代码:SMCI)宣布推出新的大规模生成式人工智能系统,该系统采用 NVIDIA 的下一代数据中心产品,包括最新的 NVIDIA GB200 Grace™ Blackwell Superchip、NVIDIA B200 Tensor Core 和 B100 Tensor Core GPU。Supermicro 正在优化其目前的 NVIDIA HGX™ H100/H200 8-GPU 系统,以便支持 NVIDIA HGX™ B100 8-GPU 和 B200,从而缩短交付时间。此外,Supermicro 还将通过 NVIDIA GB200(包括具有 72 个NVIDIA Blackwell GPU 的完整机架级解决方案的 NVIDIA GB200 NVL72)新产品,进一步加强其庞大的 NVIDIA MGX™ 系统产品系列。Supermicro 还在其产品阵容中增加了新系统,包括 4U NVIDIA HGX B200 8-GPU 液冷系统。
Supermicro 总裁兼首席执行官梁见后表示:"我们专注于人工智能的构建块架构和机架级整体 IT,有助于我们设计下一代系统,以满足基于 NVIDIA Blackwell 架构 GPU 的更高要求,例如采用 NVIDIA HGX B200 8-GPU 的新 4U 液冷系统以及 NVIDIA GB200 NVL72 的完全集成直达芯片液冷机架。这些新产品的开发乃基于 Supermicro 和 NVIDIA 久经考验的 HGX 和 MGX 系统架构,并针对 NVIDIA Blackwell GPU 的新功能进行了优化。Supermicro 拥有将 1kW GPU 整合到各种风冷和液冷系统中的专业知识,以及每月 5,000 个机架的机架规模生产能力,我们预计将率先部署采用 NVIDIA Blackwell GPU 的全机架集群,并在市场上推出。"
Supermicro 直达芯片的液体冷却技术将允许增加最新 GPU 的散热设计功率 (TDP),并充分发挥 NVIDIA Blackwell GPU 的潜力。Supermicro 搭载 NVIDIA Blackwell 的 HGX 和 MGX 系统是未来人工智能基础设施的构建块,将为数万亿参数的人工智能训练和实时人工智能推理带来突破性的性能。
一系列经过 GPU 优化的 Supermicro 系统将为 NVIDIA Blackwell B200 和 B100 Tensor Core GPU 做好准备,并针对最新的 NVIDIA AI Enterprise 软件进行验证,该软件增加了对 NVIDIA NIM 推理微服务的支持。Supermicro 系统包括:
在训练大规模基础人工智能模型方面,Supermicro 准备率先发布首次问世的 NVIDIA HGX B200 8-GPU 和 HGX B100 8-GPU 系统。这些系统采用 8 个 NVIDIA Blackwell GPU,通过第五代 NVIDIA® NVLink® 实现 1.8TB/s 的高速互连,性能是上一代的两倍,总高带宽内存为 1.5TB,与一代 NVIDIA Hopper 架构相比,GPT-Moe-1.8T 型号等 LLM 的训练结果将快 3 倍。这些系统具有先进的网络功能,可扩展到集群,支持 NVIDIA Quantum-2 InfiniBand 和 NVIDIA Spectrum-X 以太网选项,GPU 与 NIC 的比例为 1:1。
NVIDIA GPU 产品管理副总裁 Kaustubh Sanghani 表示:"Supermicro 将继续向市场推出种类繁多的加速计算平台服务器,这些服务器专为人工智能训练和推理而调整,可以满足当今市场的任何需求。我们将与 Supermicro 密切合作,为客户提供最优化的解决方案。"
对于要求最苛刻的 LLM 推理工作负载,Supermicro 发布了几款采用 NVIDIA GB200 Grace Blackwell Superchip 构建的新型 MGX 系统,该系统将 NVIDIA Grace CPU 和两个 NVIDIA Blackwell GPU 相结合。与 NVIDIA HGX H100 相比,Supermicro 配备了 GB200 系统的NVIDIA MGX 将为人工智能推理性能带来巨大飞跃,速度高达 30 倍。Supermicro 和 NVIDIA 开发了采用 NVIDIA GB200 NVL72 的机架级解决方案,将 36 个 Grace CPU 和 72 个 Blackwell GPU 连接在一个机架中。所有 72 个 GPU 都与第五代 NVIDIA NVLink 互连,以实现 1.8TB/s 的 GPU 与 GPU 的通信。此外,对于推理工作负载,Supermicro 宣布推出 ARS-221GL-NHIR,这是一款基于 GH200 系列产品的 2U 服务器,它将通过 900Gb/s 的高速互连连接两台 GH200 服务器。欢迎前往 GPU 大会的Supermicro 展位了解更多信息。
Supermicro 系统还将支持即将推出的 NVIDIA Quantum-X800 InfiniBand 平台,包括 NVIDIA Quantum-X800 QM3400 交换机和 SuperNIC800,以及由 NVIDIA Spectrum-X800 SN5600 交换机和 SuperNIC800 组成的 NVIDIA Spectrum-X800 以太网平台。NVIDIA Quantum-X800 和 Spectrum-X800 针对 NVIDIA Blackwell 架构进行了优化,将为人工智能基础设施提供最高水平的网络性能。
有关 Supermicro NVIDIA 解决方案的更多信息,请访问 https://www.supermicro.com/en/accelerators/nvidia
Supermicro 即将推出的采用 NVIDIA B200 和 GB200 的系统阵容包括:
Supermicro 将参与 2024 年 GPU 大会
Supermicro 将于 3 月 18 日至 21 日在圣何塞会议中心举行的 2024年 NVIDIA GPU 大会活动上展示用于人工智能的完整 GPU 系统产品组合。参观 Supermicro 的 #1016 号展位,了解为各种人工智能应用打造的解决方案,包括训练生成式人工智能模型、人工智能推理和边缘人工智能。Supermicro 还将展示两种机架级解决方案,包括一个概念机架,其系统采用即将推出的 NVIDIA GB200,该机架具有 72 个与第五代 NVLink 互连的液冷 GPU。
将在 2024 年 GPU 大会上展出的 Supermicro 解决方案包括:
关键词: Supermicro 人工智能 英伟达