Nvidia 推出了一个新的 CPU 和 GPU AI 处理器——GB200 Grace Blackwell NVL4

Nvidia 推出了一个新的 CPU 和 GPU AI 处理器——GB200 Grace Blackwell NVL4
2024年11月21日 15:21 电子产品世界

NvidiaGB200 NVL4 解决方案通过在单个主板上实现四个 B200 GPU 和两个 Grace CPU,将事情提升到一个新的水平。

Nvidia 发布了两款产品:GB200 NVL4,这是一款具有两个 Grace CPU 的怪物四通道 B200 GPU 模块以及针对风冷数据中心的 H200 NVL PCIe GPU。

GB200 Grace Blackwell NVL4 超级芯片是标准(非 NVL4)双 GPU 变体的更有效的变体,具有多达四个与 NVLink 相连的 B200 Blackwell GPU 和两个基于 Grace ARM 的 CPU,全部位于一个主板上。该解决方案针对 HPC 和 AI 混合工作负载,具有高达 1.3TB 的一致性内存。Nvidia 宣传 GB200 NVL4 的模拟性能是 Nvidia GH200 NVL4 的 2.2 倍,训练是 1.8 倍,推理性能是 Nvidia GH200 NVL4 的 1.8 倍,是其直接前身。

英伟达表示,GB200 NVL4 超级芯片将于 2024 年下半年从各种供应商处提供,例如微星、华硕、技嘉、纬创资通、和硕、华擎机架、联想、惠普企业等。

Nvidia 的 H200 NVL 是一款双插槽风冷 GPU,具有 PCIe 5.0 连接 (128 GB/s)。该冷却器针对机架安装解决方案进行了优化,采用流通式设计,其中进气从右向左流动;没有鼓风机式风扇。

性能比较 Nvidia 即将推出的 SXM 外形尺寸的 H200 略差。H200 NVL 的额定 FP64 为 30 TFLOPS,FP32 的额定值为 60 TFLOPS。Tensor 核心性能的额定值为 FP64 的 60 TFLOPS、TF32 的 835 TFLOPS、BFLOAT16的 1671 TFLOPS、FP16 的 1671 TFLOPS、FP8 的 3341 TFLOPS 和 INT8 的 3341 TFLOP。

然而,Nvidia 表示 H200 NVL 比它所取代的 H100 NVL 快得多。它具有 1.5 倍的内存容量和 1.2 倍的内存带宽,为 HPC 工作负载提供高达 1.7 倍的推理性能和 1.3 倍的性能。Nvidia 还与 Ampere 进行了快速比较,指出 H200 NVL 比 Ampere 的同等 GPU 快 2.5 倍。

H200 NVL PCIe GPU 针对绝大多数数据中心配置进行了优化,包括风冷服务器机架。Nvidia 表示,根据一项调查,大约 70% 的企业机架使用风冷和 20kW 或更低的功率。作为 PCIe GPU,数据中心提供商可以重复使用其现有机架,并且只需更换 GPU,从而减少浪费并显著降低升级硬件的成本。H200 NVL 还配备了 NVLink,每个 GPU 提供高达 900 GB/s 的带宽,使系统提供商能够在单个钻机中连接多达四个 GPU 以提高性能。

本文引用地址:

关键词: Nvidia CPU GPU AI 处理器 GB200
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片