专为训练Llama 3,Meta 4.9万张H100集群细节公布

专为训练Llama 3,Meta 4.9万张H100集群细节公布
2024年03月13日 12:26 机器之心Pro

只想知道 Llama 3 何时能来?

生成式大模型给人工智能领域带来了重大变革,人们在看到实现通用人工智能(AGI)希望的同时,训练、部署大模型的算力需求也越来越高。

刚刚,Meta 宣布推出两个 24k GPU 集群(共 49152 个 H100),标志着 Meta 为人工智能的未来做出了一笔重大的投资。

这是 Meta 雄心勃勃的基础设施路线图中的一步。Meta 会持续扩大基础设施建设,到 2024 年底将包括 350000 个 NVIDIA H100 GPU,其计算能力将相当于近 600000 个 H100。

Meta 表示:「我们坚定致力于开放计算和开源。我们在 Grand Teton、OpenRack 和 PyTorch 之上构建了这些集群,并将继续推动整个行业的开放创新。我们会使用这种算力集群来训练 Llama 3。」

图灵奖得主、Meta 首席科学家 Yann LeCun 也发推强调了这一点。

Meta 分享了新集群在硬件、网络、存储、设计、性能和软件方面的详细信息。新集群将为各种人工智能工作负载获取高吞吐量和高可靠性。

集群概览

Meta 的长期愿景是构建开放且负责任的通用人工智能,以便让每个人都能广泛使用并从中受益。

2022 年,Meta 首次分享了一个 AI 研究超级集群 (RSC) 的详细信息,该集群配备 16000 个 NVIDIA A100 GPU。RSC 在 Llama 和 Llama 2 的开发以及计算机视觉、NLP、语音识别、图像生成、编码等方向的高级人工智能模型的开发中发挥了重要作用。

Meta 现在推出的新的人工智能集群建立在 RSC 的成功和经验教训的基础上。Meta 表示其专注于构建端到端人工智能系统,重点关注研究人员和开发人员的体验和生产力。

新集群中高性能网络结构的效率、一些关键的存储决策,再加上每个集群中的 24576 个 NVIDIA Tensor Core H100 GPU,使两个集群都能够支持比 RSC 集群可支持的模型更大、更复杂的模型。

网络

Meta 每天处理数百万亿个人工智能模型的运行。大规模提供人工智能模型服务需要高度先进且灵活的基础设施。

为了优化人工智能研究人员的端到端体验,同时确保 Meta 的数据中心高效运行,Meta 基于 Arista 7800 以及 Wedge400 和 Minipack2 OCP 机架交换机构建了一个采用 RoCE 协议(一种集群网络通信协议,实现在以太网上进行远程直接内存访问(RDMA))的网络结构集群。另一个集群则采用 NVIDIA Quantum2 InfiniBand 结构。这两种解决方案都互连 400 Gbps 端点。

这两个新集群可以用来评估不同类型的互连对于大规模训练的适用性和可扩展性,帮助 Meta 了解未来如何设计和构建更大规模的集群。通过对网络、软件和模型架构的仔细协同设计,Meta 成功地将 RoCE 和 InfiniBand 集群用于大型 GenAI 工作负载,而没有任何网络瓶颈。

计算

这两个集群都是使用 Grand Teton 构建的,Grand Teton 是 Meta 内部设计的开放 GPU 硬件平台。

Grand Teton 以多代人工智能系统为基础,将电源、控制、计算和结构接口集成到单个机箱中,以实现更好的整体性能、信号完整性和热性能。它以简化的设计提供快速的可扩展性和灵活性,使其能够快速部署到数据中心队列中并轻松进行维护和扩展。

存储

存储在人工智能训练中发挥着重要作用,但却是最少被谈论的方面之一。

随着时间的推移,GenAI 训练工作变得更加多模态,消耗大量图像、视频和文本数据,对数据存储的需求迅速增长。

Meta 新集群的存储部署通过用户空间中的本地 Linux 文件系统 (FUSE) API 来满足 AI 集群的数据和检查点需求,该 API 由 Meta 的「Tectonic」分布式存储解决方案提供支持。这种解决方案使数千个 GPU 能够以同步方式保存和加载检查点,同时还提供数据加载所需的灵活且高吞吐量的 EB 级存储。

Meta 还与 Hammerspace 合作,共同开发并落地并行网络文件系统(NFS)部署。Hammerspace 使工程师能够使用数千个 GPU 对作业执行交互式调试。

性能

Meta 构建大规模人工智能集群的原则之一是同时最大限度地提高性能和易用性。这是创建一流人工智能模型的重要原则。

Meta 在突破人工智能系统的极限时,测试扩展设计能力的最佳方法就是简单构建一个系统,然后优化并实际测试(虽然模拟器有帮助,但也只能到此为止)。

此次设计,Meta 比较了小型集群和大型集群的性能,以了解瓶颈所在。下显示了当大量 GPU 以预期性能最高的通信大小相互通信时,AllGather 集体性能(以 0-100 范围内的标准化带宽表示)。

与优化的小型集群性能相比,大型集群的开箱即用性能最初很差且不一致。为了解决这个问题,Meta 对内部作业调度程序通过网络拓扑感知来调的方式进行了一些更改,这带来了延迟优势并最大限度地减少了流向网络上层的流量。

Meta 还结合 NVIDIA Collective Communications Library (NCCL) 更改优化了网络路由策略,以实现最佳的网络利用率。这有助于推动大型集群像小型集群一样实现出色的预期性能。

从图中我们可以看到,小集群性能(整体通信带宽和利用率)开箱即达到 90%+,但未经优化的大型集群性能利用率非常低,从 10% 到 90% 不等。在优化整个系统(软件、网络等)后,我们看到大型集群性能恢复到理想的 90%+ 范围。

除了针对内部基础设施的软件更改之外,Meta 还与编写训练框架和模型的团队密切合作,以适应不断发展的基础设施。例如,NVIDIA H100 GPU 开启了利用 8 位浮点 (FP8) 等新数据类型进行训练的可能性。充分利用更大的集群需要对额外的并行化技术和新的存储解决方案进行投资,这提供了在数千个级别上高度优化检查点以在数百毫秒内运行的机会。

Meta 还认识到可调试性是大规模训练的主要挑战之一。大规模识别出导致整个训练停滞的出错 GPU 非常困难。Meta 正在构建诸如异步调试或分布式集体飞行记录器之类的工具,以公开分布式训练的细节,并帮助以更快、更简单的方式识别出现的问题。

参考链接:https://engineering.fb.com/2024/03/12/data-center-engineering/building-metas-genai-infrastructure/

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片