面对英伟达挑战,国产AI算力难题如何破解?

面对英伟达挑战,国产AI算力难题如何破解?
2024年07月04日 09:57 牛华网

7月3日,上海——摩尔线程重磅宣布其AI旗舰产品夸娥(KUAE)智算集群解决方案实现重大升级,从当前的千卡级别大幅扩展至万卡规模。摩尔线程夸娥(KUAE)万卡智算集群,以全功能GPU为底座,旨在打造国内领先的、能够承载万卡规模、具备万P级浮点运算能力的国产通用加速计算平台,专为万亿参数级别的复杂大模型训练而设计。这一里程碑式的进展,树立了国产GPU技术的新标杆,有助于实现国产智算集群计算能力的全新跨越,将为我国人工智能领域技术与应用创新、科研攻坚和产业升级提供坚实可靠的关键基础设施。

此外,摩尔线程联合中国移动通团青海有限公司中国联通青海公司、北京德道信科集团、中国能源建设股份有限公司总承包公司桂林华崛大数据科技有限公司(排名不分先后)分别就三个万卡集群项目进行了战略签约,多方聚力共同构建好用的国产GPU集群。

摩尔线程创始人兼CEO张建中表示:“当前,我们正处在生成式人工智能的黄金时代,技术交织催动智能涌现,GPU成为加速新技术浪潮来临的创新引擎。摩尔线程矢志投身于这一历史性的创造进程,致力于向全球提供加速计算的基础设施和一站式解决方案,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。夸娥万卡智算集群作为摩尔线程全栈AI战略的一块重要拼图,为各行各业数智化转型提供澎湃算力,不仅有力彰显了摩尔线程在技术创新和工程实践上的实力,更将成为推动AI产业发展的新起点。”

AI主战场,万卡通用算力是标配

大模型自问世以来,关于其未来的走向和发展趋势亟待时间验证,但从当前来看,几种演进趋势值得关注,使得其对算力的核心需求也愈发明晰。

首先,Scaling Law将持续奏效。Scaling Law自2020年提出以来,已揭示了大模型发展背后的“暴力美学”,即通过算力、算法、数据的深度融合与经验积累,实现模型性能的飞跃,这也成为业界公认的将持续影响未来大模型的发展趋势。Scaling Law将持续奏效,需要单点规模够大并且通用的算力才能快速跟上技术演进。

其次,Transformer架构不能实现大一统,和其他架构会持续演进并共存,形成多元化的技术生态。生成式AI的进化并非仅依赖于规模的简单膨胀,技术架构的革新同样至关重要。Transformer架构虽然是当前主流,但新兴架构如Mamba、RWKV和RetNet等不断刷新计算效率,加快创新速度。随着技术迭代与演进,Transformer架构并不能实现大一统,从稠密到稀疏模型,再到多模态模型的融合,技术的进步都展现了对更高性能计算资源的渴望。

与此同时,AI、3D和HPC跨技术与跨领域融合不断加速,推动着空间智能、物理AI和AI 4Science、世界模型等领域的边界拓展,使得大模型的训练和应用环境更加复杂多元,市场对于能够支持AI+3D、AI+物理仿真、AI+科学计算等多元计算融合发展的通用加速计算平台的需求日益迫切。

多元趋势下,AI模型训练的主战场,万卡已是标配。随着计算量不断攀升,大模型训练亟需超级工厂,即一个“大且通用”的加速计算平台,以缩短训练时间,实现模型能力的快速迭代。当前,国际科技巨头都在通过积极部署千卡乃至超万卡规模的计算集群,以确保大模型产品的竞争力。随着模型参数量从千亿迈向万亿,模型能力更加泛化,大模型对底层算力的诉求进一步升级,万卡甚至超万卡集群成为这一轮大模型竞赛的入场券。

然而,构建万卡集群并非一万张GPU卡的简单堆叠,而是一项高度复杂的超级系统工程。它涉及到超大规模的组网互联、高效率的集群计算、长期稳定性和高可用性等诸多技术难题。这是难而正确的事情,摩尔线程希望能够建设一个规模超万卡、场景够通用、生态兼容好的加速计算平台,并优先解决大模型训练的难题。

夸娥:国产万卡万P万亿大模型训练平台

夸娥(KUAE)是摩尔线程智算中心全栈解决方案,是以全功能GPU为底座,软硬一体化、完整的系统级算力解决方案,包括以夸娥计算集群为核心的基础设施、夸娥集群管理平台(KUAE Platform)以及夸娥大模型服务平台(KUAE ModelStudio),旨在以一体化交付的方式解决大规模GPU算力的建设和运营管理问题。

基于对AI算力需求的深刻洞察和前瞻性布局,摩尔线程夸娥智算集群可实现从千卡至万卡集群的无缝扩展,旨在满足大模型时代对于算力“规模够+计算通用+生态兼容”的核心需求,通过整合超大规模的GPU万卡集群、极致的计算效率优化以及高度稳定的运行环境,以万卡智算集群的新超级工程,重新定义国产集群计算能力的新标准。

夸娥万卡智算解决方案具备多个核心特性:

超大算力万卡万P:在集群计算性能方面,全新一代夸娥智算集群实现单集群规模超万卡,浮点运算能力达到10Exa-Flops,大幅提升单集群计算性能,能够为万亿参数级别大模型训练提供坚实算力基础。同时,在GPU显存和传输带宽方面,夸娥万卡集群达到PB级的超大显存总容量、每秒PB级的超高速卡间互联总带宽和每秒PB级超高速节点互联总带宽,实现算力、显存和带宽的系统性协同优化,全面提升集群计算性能。

超高稳定月级长稳训练稳定性是衡量超万卡集群性能的关键。在集群稳定性方面,摩尔线程夸娥万卡集群平均无故障运行时间超过15天,最长可实现大模型稳定训练30天以上,周均训练有效率在99%以上,远超行业平均水平。这得益于摩尔线程自主研发的一系列可预测、可诊断的多级可靠机制,包括:软硬件故障的自动定位与诊断预测实现分钟级的故障定位,Checkpoint多级存储机制实现内存秒级存储和训练任务分钟级恢复以及高容错高效能的万卡集群管理平台实现秒级纳管分配与作业调度。

极致优化超高MFU:MFU是评估大模型训练效率的通用指标,可以直接反应端到端的集群训练效率。夸娥万卡集群在系统软件、框架、算法等层面一系列优化,实现大模型的高效率训练,MFU最高可达到60%。其中,在系统软件层面,基于极致的计算和通讯效率优化等技术手段,大幅提升集群的执行效率和性能表现。在框架和算法层面,夸娥万卡集群支持多种自适应混合并行策略与高效显存优化等,可以根据应用负载选择并自动配置最优的并行策略,大幅提升训练效率和显存利用。同时,针对超长序列大模型,夸娥万卡集群通过CP并行、RingAttention等优化技术,有效缩减计算时间和显存占用,大幅提升集群训练效率。

全能通用生态友好夸娥万卡集群是一个通用加速计算平台,计算能力为通用场景设计,可加速LLM、MoE、多模态、Mamba等不同架构、不同模态的大模型。同时,基于高效易用的MUSA编程语言、完整兼容CUDA能力和自动化迁移工具Musify,加速新模型“Day0”级迁移,实现生态适配“Instant On”,助力客户业务快速上线。 

万众一芯,共建大模型应用生态

万卡集群的建设需要产业界的齐心协力,为实现大模型创新应用的快速落地,让国产算力“为用而建”。发布会现场,摩尔线程携手中国移动通信集团青海有限公司、中国联通青海公司、北京德道信科集团、中国能源建设股份有限公司总承包公司、桂林华崛大数据科技有限公司(排名不分先后),分别就青海零碳产业园万卡集群项目、青海高原夸娥万卡集群项目、广西东盟万卡集群项目进行了战略签约。

借助摩尔线程先进的夸娥全栈智算解决方案,各方将携手共建强大的全国产智算平台,以加速产业数字化转型和高质量发展。夸娥万卡智算集群项目标志着国产AI算力基础设施的又一重大进展,将为各地的数字经济发展注入新活力。

图注:摩尔线程与中国移动通信集团青海有限公司战略签约图注:摩尔线程与中国移动通信集团青海有限公司战略签约
图注:摩尔线程与中国联通青海公司、北京德道信科集团战略签约图注:摩尔线程与中国联通青海公司、北京德道信科集团战略签约
图注:摩尔线程与中国能源建设股份有限公司总承包公司、桂林华崛大数据科技有限公司战略签约图注:摩尔线程与中国能源建设股份有限公司总承包公司、桂林华崛大数据科技有限公司战略签约

发布会后,无问芯穹、清程极智、360、京东云、智平方等五家合作伙伴代表纷纷登台,分享了摩尔线程夸娥智算集群如何助力其在大模型训练、大模型推理、具身智能等不同场景和领域的创新,展现了夸娥智算集群在实际应用中的巨大潜力与广泛适用性。

摩尔线程愿与广大行业伙伴并肩同行,发挥全栈AI的力量,加速推动一个由万卡智算集群为强大底座,多领域伙伴共建、广泛赋能数字经济的国产智算生态,共同开启一个属于大模型与生成式人工智能的新时代,为美好世界加速。在WAIC期间,摩尔线程将在上海世博展览馆(H2馆D616)开展“全栈AI 为美好世界加速”的主题成果展示,包括加速卡、服务器、超融合一体机和AIGC应用在内的摩尔线程全栈AI产品悉数亮相,并携手众多行业合作伙伴联合展示基于夸娥智算集群的丰富行业大模型与应用方案。

+++

关于摩尔线程

摩尔线程成立于2020年10月,以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。

我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片