【招商电子】英伟达FY25Q2跟踪报告:B系列预计Q4出货数十亿美元,下季营收指引325亿美元

【招商电子】英伟达FY25Q2跟踪报告:B系列预计Q4出货数十亿美元,下季营收指引325亿美元
2024年08月30日 13:51 招商电子

事件:

英伟达发布FY25Q2季报,本季营收300.4亿美元,同比+122%/环比+15%,毛利率75.7%,同比+4.5pcts/环比-3.2pcts。财报公布后英伟达盘后跌幅超5%。综合财报及交流会议信息,总结要点如下:

评论:

1、本季营收再超指引预期但毛利率环比下降,额外批准500亿美元回购计划。

FY25Q2营收为300.4亿美元,同比+122%/环比+15%,大幅超指引预期(280亿美元),毛利率75.7%,同比+4.5pcts/环比-3.2pcts,环比下降主要系数据中心中新产品的比例增加以及对低产量Blackwell材料的库存准备。公司使用74亿美元用于股东回报,包括股票回购和现金分红,同时批准了一项500亿美元的股票回购授权,加上在第二季度末剩余的75亿美元授权。

2、四大业务板块均实现因受同环比增长,数据中心营收再创单季新高。

1)数据中心:FY25Q2营收为263亿美元,同比+154%/环比+16%,系对Nvidia Hopper GPU计算和公司的网络平台的强劲需求,计算收入同比增长了超过2.5倍,网络收入同比增长超过2倍,环比增长了16%。云服务提供商占数据中心收入约45%,超过50%的收入来自消费互联网和企业公司,客户继续加速采购Hopper架构,同时准备采用Blackwell架构;2)游戏和AI PC:营收28.8亿美元,同比+16%/环比+9%,公司在控制台、笔记本电脑和台式机的收入都实现了环比增长,需求强劲且持续增长,渠道库存保持健康;3)专业可视化:营收4.54亿美元,同比+20%/环比+6%,需求主要来自AI和图形应用场景,包括模型微调和Omniverse相关工作负载,汽车和制造业是本季度推动增长的关键行业;4)汽车:营收3.46亿美元,同比+37%/环比+5%,主要得益于自驾平台的新客户品牌和对AI驾驶舱解决方案的需求增加。

3、FY25Q3营收指引为325亿美元,Q3 Hopper系列产品预计销售持续增长。

FY25Q3营收指引中值为325亿美元(±2%),同比+79.36%/环比+8.19%,第三季度收入展望包括Hopper架构的持续增长和Blackwell产品的送样,预计Blackwell的生产将在第四季度开始爬坡。毛利率指引为75%(±0.5pct),同比持平/环比-0.7pct,随着数据中心产品组合向新产品的转变,预计这种趋势将持续到2025财年第四季度,全年毛利率预计在中70%范围内。

4、Hopper需求持续强劲,Blackwell将在Q4开始以数十亿美元的规模出货

Hopper的增长势头将持续到下半年,同时公司为Hopper准备了许多新产品,现有的Hopper产品也将在未来几个季度,尤其是第三季度,继续增长且将延续到第四季度。Blackwell将在今年Q4开始以数十亿美元的规模出货,但容量恢复可能还需要几周或一个多月的时间。在Blackwell产品配置方面,提供多种选择,Blackwell可以采用经典版本(风冷),而Grace Blackwell则是液冷,越来越多的数据中心希望采用液冷,因为在任何电力受限的数据中心,无论其规模如何,都可以部署3到5倍于以往的AI算力。

投资建议。***。

风险提示:竞争加剧风险、贸易摩擦风险、行业景气度变化风险、宏观经济及政策风险。

附录:英伟达FY2025Q2业绩说明会纪要

时间:2024年08月29日

出席:

Simona Jankowski – IR & VP

Colette Kress - EVP & CFO

Jensen Huang - CEO & President

会议纪要根据公开信息整理如下:

业绩概述:第二季度是公司又一个创纪录的季度,收入达到300亿美元,同比增长了122%,环比增长了15%,远高于此前280亿美元的预期。

数据中心:收入达到263亿美元,再创纪录,同比增长了154%,环比增长了16%,得益于对Nvidia Hopper GPU计算和公司的网络平台的强劲需求,计算收入同比增长了超过2.5倍,网络收入同比增长超过2倍,云服务提供商占数据中心收入约45%,超过50%的收入来自消费互联网和企业公司,客户继续加速采购Hopper架构,同时准备采用Blackwell架构。

推动公司数据中心增长的关键包括生成式AI模型训练和推理、视频、图像和文本数据的预处理和后处理,CUDA和AI工作负载、合成数据生成、AI驱动的推荐系统、SQL和向量数据库处理等,下一代模型需要比现有模型多10到20倍的计算能力来训练,并且需要显著更多的数据,这一趋势预计将在接下来的四个季度内继续。公司估计推理占数据中心收入的40%以上,CSP(云服务提供商)、消费互联网公司和企业从Nvidia的推理平台的卓越吞吐量和效率中受益,Nvidia的需求来自前沿模型制造商、消费互联网服务和成千上万的公司和初创企业,这些公司正在为消费者、广告、教育、企业、医疗保健和机器人开发生成式AI应用程序,开发者希望Nvidia丰富的生态系统和在各大云平台上的可用性,CSP对Nvidia的广泛采用表示赞赏。鉴于需求旺盛,Nvidia H200平台从第二季度开始逐步推出,向大型CSP、消费互联网公司和企业公司发货,Nvidia H200在公司的Hopper架构的基础上进行改进,提供了比H100多出40%的内存带宽。公司在中国的数据中心收入在第二季度呈现环比增长,成为公司数据中心收入的重要来源,尽管如此,这一收入占比仍低于出口管制实施前的水平,预计未来中国市场将非常具有竞争性。

最新一轮的MLPerf推理基准测试突出了NVIDIA在推理领域的领导地位,NVIDIA Hopper和Blackwell平台在Pompey Text的所有任务中赢得了金牌。在NVIDIA的支持下,顶级计算机制造商展示了一系列基于Blackwell架构的系统,并且NVIDIA网络用于构建AI工厂和数据中心,通过NVIDIA MGX模块化参考架构,ODMs合作伙伴正在快速、经济高效地构建100多种基于Blackwell的系统,NVIDIA Blackwell平台将多个GPU、CPU、GPU和链路、NVIDIA网络芯片、系统以及NVIDIA软件整合在一起,推动下一代AI应用在各个行业和国家的普及。

NVIDIA GB200 NVL 72系统配备了第五代NVLink,使所有72个GPU能够作为一个单一GPU运行,实现了高达30倍的LLM(大型语言模型)推理速度,并解锁了实时运行万亿参数模型的能力。Blackwell的样品也在广泛分发,公司对Blackwell GPU进行了调整,以提高生产良率,Blackwell的生产扩张计划预计将在第四季度开始,并持续到2026财年,在第四季度,预计Blackwell的收入将达到数十亿美元,预计2025财年下半年出货量将增加,Blackwell的供应和可用性有所改善,对Blackwell平台的需求远远高于供应,预计这种情况会持续到明年。

网络收入环比增长了16%,公司的AI以太网收入,包括Spectrum X和以太网平台,环比翻了一番,数百个客户采用了我们的以太网产品,Spectrum X得到了OEM和ODM合作伙伴的广泛市场支持,并被CFP(客户融资计划)、GPU、云服务提供商和企业(包括X AI)采纳,用于连接世界上最大的GPU计算集群,Spectrum X为AI处理提供了超级充电,性能是传统以太网的1.6倍。

公司计划每年推出新的Spectrum X产品,以支持从今天的数万GPU到不久的将来数百万GPU的计算集群扩展需求,Spectrum X有望在一年内成为一个数十亿美元的产品线。

随着各国认识到AI专长和基础设施对社会和行业的国家重要性,我们的主权AI机会持续扩大,日本先进工业科学技术研究所正在建设其AI桥接云基础设施3.0超级计算机,我们相信,主权AI收入今年将达到低双位数十亿美元(low double digit billions)级别。企业AI浪潮已经开始,企业也在推动季度收入环比增长,公司正在与大多数《财富》100强公司合作,开展跨行业和地域的AI项目,各种应用正在推动公司的增长,包括AI驱动的聊天机器人、生成式AI助手和代理,以建立新的大型商业应用,提高员工生产力,以及医生利用NVIDIA生成式AI进行智能助手,提升客户体验并将客户服务成本降低30%。

ServiceNow正在使用Nvidia的技术来提供其NOW Assist,这是公司系统中增长最快的新产品,SAP正在使用Nvidia技术来构建Dual Copilot,俄亥俄州城市正在使用Nvidia产品来开发生成式AI代理,降低生成式AI开发成本,Snowflake每天处理超过30亿次查询,为1万多家企业客户提供服务,并与Nvidia合作构建Copilot,最后,Wrth正在使用Nvidia的AI Omniverse来将其工厂的端到端周期时间缩短50%。

汽车行业是本季度的一个关键增长驱动因素,因为每家开发自动驾驶技术的汽车制造商都在其数据中心使用Nvidia产品,汽车行业将推动数十亿美元的收入,涵盖本地和云端的消费,并随着下一代AB模型对计算需求显著增加而持续增长,医疗保健也在向成为数十亿美元的业务迈进,AI正在彻底改变医学影像、手术机器人、患者护理、电子健康记录处理和药物发现等领域。

在本季度,公司宣布了新的Nvidia AI Flat Boundary服务,用于支持生成式AI,面向全球企业提供Meadows、Llama 3.1模型集合,这标志着企业AI的一个重大时刻,企业首次可以利用开源前沿级模型的能力,开发定制的AI应用程序,将其机构知识编码到AI飞轮中,以自动化和加速其业务。

Accenture是首家采用新服务的公司,用于构建定制的Llama 3.1模型,以供其自身使用,并协助客户部署生成式AI应用,Nvidia的NIM(Nvidia Inference Model)加速并简化了模型部署,医疗保健、能源、金融服务、零售、交通运输和电信领域的公司正在采用NIM,包括Aramco、Lowe's和Uber,AT&T在迁移到NIM后实现了70%的成本节省和8倍的延迟减少,NIM还支持生成式AI的转录和分类。超过150个合作伙伴正在将NIM嵌入到AI生态系统的每一个层面,公司宣布了NIM Agent蓝图,这是一个包含全面软件套件的可定制参考应用目录,用于构建和部署企业生成式AI应用程序,通过NIM Agent蓝图,企业可以随着时间的推移优化他们的AI应用,创建数据驱动的AI飞轮,首批NIM Agent蓝图包括客户服务、计算机辅助药物发现和企业检索、增强生成等工作负载。

公司的系统集成商、技术解决方案提供商和系统建设者正在将Nvidia NIM Agent蓝图带到企业中,Nvidia NIM和NIM Agent蓝图可以通过Nvidia AI Enterprise软件平台获取,该平台具有良好的增长势头,预计到今年年底,我们的软件、SaaS和支持收入将接近20亿美元的年收入水平,其中Nvidia AI Enterprise显著贡献了增长。

游戏:收入达到28.8亿美元,同比增长16%,环比增长9%。公司在控制台、笔记本电脑和台式机的收入都实现了环比增长,需求强劲且持续增长,渠道库存保持健康。每台配备RTX的PC都是AI PC,RTX PC可以提供高达1300 TOPS的AI性能。目前,领先的PC制造商提供了超过200款RTX AI笔记本设计,拥有600款AI驱动的应用程序和游戏,以及1亿台设备的安装基础。

RTX有望通过生成式AI彻底改变消费者体验,Nvidia ACE,一套生成式AI技术,现已为RTX AI PC提供服务,《Break》是首个使用Nvidia ACE的游戏,包含我们的微型语言模型Minotaur 4B,优化了设备上的推理,Nvidia的游戏生态系统持续增长。

最近新增了包括《Deanna Jones and the Great Circle》、《Doing Awakening》和《Dragon Age: The Veil Guard》在内的RTX和DSS游戏标题,GeForce NOW库继续扩展,总目录规模已超过2000个游戏标题,在所有部分中,游戏服务的内容最多。

专业可视化:收入达到4.54亿美元,同比增长20%,环比增长6%。需求主要来自AI和图形应用场景,包括模型微调和Omniverse相关工作负载,汽车和制造业是本季度推动增长的关键行业。各公司正在争相数字化工作流程,以提高运营效率。全球最大的电子制造商富士康正在使用Nvidia Omniverse为生产Nvidia Blackhole系统的实体工厂提供数字孪生支持,包括梅赛德斯-奔驰在内的多个大型全球企业已签署了多年合同,利用Nvidia Omniverse Cloud构建工厂的工业数字孪生。公司宣布了新的Nvidia USD名称和连接器,以将Omniverse开放到新行业,并使开发者能够将生成式AI助手和代理集成到USD工作负载中,从而加速构建高度准确的虚拟世界的能力。WPP正在其生成式AI支持的内容创建管道中实施USD微服务,为可口可乐公司等客户提供服务。

汽车:收入达到3.46亿美元,同比增长37%,环比增长5%,主要得益于自驾平台的新客户品牌和对AI驾驶舱解决方案的需求增加。在计算机视觉和模式识别大会上,Nvidia在端到端驾驶的高端类别中,在超过400个全球参赛作品中表现优异。波士顿动力、比亚迪电子、Figure、Intrinsic、Siemens、Skilled、ADI和Paradigm Robotics正在使用Nvidia Isaac Robotics平台,支持自主机器人、机械臂、人形机器人和移动机器人。

毛利率:GAAP毛利率为75.1%,非GAAP毛利率为75.7%,环比下降,原因是数据中心中新产品的比例增加以及对低产量Blackwell材料的库存准备。

运营费用:环比增长了12%,主要反映了更高的薪酬相关成本。

运营现金流:FY25Q2为145亿美元。

股票回购和现金分红:公司使用了74亿美元用于股东回报,包括股票回购和现金分红,反映了每股分红的增加。公司董事会最近批准了一项500亿美元的股票回购授权,加上在第二季度末剩余的75亿美元授权。

FY25Q3业绩展望:

FY25Q3总收入预计为325亿美元,波动范围为±2%,公司第三季度收入展望包括Hopper架构的持续增长和Blackwell产品的送样,预计Blackwell的生产将在第四季度开始爬坡。GAAP和非GAAP毛利率预计分别为74.4%和75%,波动范围为±50个基点,随着数据中心产品组合向新产品的转变,预计这种趋势将持续到2025财年第四季度,全年毛利率预计在中70%范围内。GAAP和非GAAP运营费用预计分别为43亿美元和30亿美元。全年运营费用预计将增长中至高40%的范围。

在开发下一代产品的过程中,GAAP和非GAAP的其他收入和支出预计约为3.5亿美元,包括来自非关联投资和公开持有的股权证券的收益和损失。GAAP和非GAAP的税率预计为17%,波动范围为±1%。

Q&A

Q:公司提到Blackwell GPU掩模发生了变化,除了掩模之外,是否还有其他增量变化,比如后端封装或者其他方面的变化?公司提到尽管设计发生了变化,但在第四季度仍然可以出货数十亿美元的Blackwell,这是否意味着所有这些问题到那时都能得到解决?这将如何影响公司的收入情况,以及客户对这些变化的反应如何?

A:实际上,掩模的更改已经完成,不需要进行功能性变更。我们正在以各种系统配置进行Blackwell的功能样品采样,目前有大约100种不同类型的Blackwell系统已经在Computex上展示,我们正在使我们的生态系统开始进行这些样品的采样,Blackwell的功能保持不变,我们预计将在第四季度开始生产。

Q:市场上对公司客户和客户投资回报的讨论非常热烈,这对未来资本支出的可持续性意味着什么?在Nvidia内部,正在关注哪些因素?这些指标又如何影响公司的资本支出决策?另外,公司全年的Sovereign AI收入预期有所上调,增加了大约几十亿美元,是什么推动了这个乐观的前景?应该如何看待财年2026年的情况?

A:当我说在第四季度开始发货时,指的是已经开始发货,而不是仅开始生产。对于这个长期问题,可以先从一个更广泛的角度来看,公司正在经历两个平台的同步转型。

第一个转型是从通用计算向加速计算的过渡。这一变化的原因是CPU的性能扩展已经明显减缓,几乎停滞不前,但与此同时,计算需求却在显著增加,甚至可以估算出每年翻倍,因此,如果不采用新的计算方式,计算成本将会逐步上升,并导致全球数据中心的能源消耗激增。

实际上,公司已经看到加速计算是这一问题的解决方案。加速计算不仅能够大幅提高应用程序的速度,还可以支持更大规模的计算任务,例如科学模拟或数据库处理。更重要的是,这直接转化为更低的成本和更低的能耗。事实上,本周我们还发布了一篇博客,介绍了我们推出的一系列新库,这实际上是第一个平台转型的核心,即从通用计算向加速计算的过渡,在这一过程中,用户可能会看到90%的计算成本节约,这是因为加速计算能够将某些应用程序的运行速度提升50倍,进而显著降低计算成本。

第二个转型由加速计算推动,因为我们大幅降低了训练成本,如今,大规模的语言模型和深度学习的训练已经非常高效,以至于可以构建多万亿参数规模的模型,并以全球知识库为基础进行预训练,这些模型能够自主理解人类语言的表示形式,并将知识编码到其神经网络中,甚至还能学习推理,这一进展引发了生成式AI的革命。

关于生成式AI,我想从更大的角度解释为什么我们如此深入地投入其中,这不仅仅是一个功能或技术能力的提升,而是一种全新的软件开发方式。过去,软件依赖于人工设计的算法,而现在,基于数据和AI,我们告诉模型和计算机预期的答案和过去的观测数据,让它们自己找出算法和功能。生成式AI可以看作是一种通用的函数逼近器,它能够学习几乎任何可预测的事物,只要它具有结构和过往的例子。

现在,我们面临的生成式AI,是计算机科学的全新形态,影响着从CPU到GPU的每一个计算层,从人类设计的算法到机器学习算法,这种技术带来了前所未有的应用开发和生产能力,在生成式AI领域,正在发生许多突破性的变化。

首先,前沿模型的规模正在显著增长,我们依然能够看到模型扩展带来的好处。每当模型规模翻倍时,训练所需的数据集也必须扩大到两倍以上,而生成这些模型FLOPs所需的计算量呈现指数级增长,因此,下一代模型可能需要比上一代高出10倍、20倍甚至40倍的计算能力,这是完全可以预期的,因此,我们必须持续大幅提升每一代技术的性能,以降低能耗和成本。目前,越来越多的前沿模型开始在多种模式下进行训练,今年参与前沿模型开发的团队比去年更多,这是当前的一个动态变化。

其次,尽管我们大多看到的是像ChatGPT这样的聊天机器人、图像生成器,以及我们在英伟达广泛使用的AI编程工具,但这些只是冰山一角,在冰山之下,存在的是全球最大规模的计算系统,这些系统的推荐算法正在从传统的CPU过渡到生成式AI。现在,不仅仅是CPU,而是生成式AI在推动推荐系统、广告生成、定制广告生成、大规模广告投放、精准搜索和用户生成内容的变化。

这些大型应用已经逐步演变为生成式AI的核心应用,生成式AI初创公司的兴起为我们的云合作伙伴带来了数百亿美元的云租赁机会。同时,主权国家意识到数据是他们的天然和国家资源,因此,他们必须利用AI,构建自己的AI基础设施,以实现数字智能的自主发展。

企业AI已经开始起步,全球领先的IT公司正在与我们合作,将NVIDIA AI企业平台推广到全球企业中,我们与这些公司合作时,发现他们对提高生产力充满极大的热情。

此外,关于通用机器人,去年的一大变革是我们现在可以通过观看视频、人工示范以及通过诸如Omniverse这样的系统利用强化学习生成合成数据,来学习Physical AI。如今,我们几乎与每一家机器人公司都在合作,开始构思并构建通用机器人。因此,生成式AI正在向许多不同方向发展,我们实际上看到生成式AI的动能正在加速。

关于您提到的Sovereign AI以及我们在增长和收入目标方面的计划,这无疑是一个独特且不断增长的机会,生成式AI的出现促使各国越来越希望拥有能够融入其本国语言、文化和数据的AI系统。因此,围绕这些能够针对各国需求的AI模型的热情正在不断高涨,给我们带来了明显的增长机遇。

Q:公司对Blackwell的预期非常高,但似乎Hopper的需求也非常强劲,公司对10月的季度展望非常乐观,且没有包括Blackwell的贡献,请问公司认为这两者的强劲需求会持续多久?此外,能否谈谈向Blackwell的过渡情况?公司是否看到客户将两者混合使用?或者Blackwell的应用主要集中在新集群上?能否提供一些关于这一过渡的详细信息?

A:Hopper的需求非常强劲,而Blackwell的需求则是惊人,这背后有几个原因。

第一个原因,如果你观察全球的云服务提供商,他们几乎没有可用的GPU容量,原因在于这些GPU大多已经内部部署,用于加速他们自己的工作负载,例如数据处理,虽然数据处理听起来不怎么酷,因为它不会生成图片或文字,但实际上,几乎全球所有的公司都在后台处理数据,NVIDIA的GPU是目前全球唯一可以加速处理SQL数据、Pandas数据科学工具包以及新的Polars等数据处理平台的加速器,除了CPU外(CPU性能增长已经接近停滞),NVIDIA的加速计算几乎是唯一能提高这些数据处理性能的解决方案。因此,第一个主要的应用场景并不是生成式AI出现后才有的,而是各类应用程序逐渐向加速计算迁移。

第二个原因是租赁,云服务提供商将其容量租赁给模型开发者和初创公司,而生成式AI公司大部分的资本投资都用于基础设施,以利用AI创建产品,这些公司需要立即使用这些资源,因为他们刚筹集了资金,必须马上开始执行任务,无法等到明年,他们今天就需要完成数据处理。

此外,Hopper需求的另一个推动力是争夺AI发展中的“下一高峰”,谁能率先到达这个高峰,谁就能引入一项革命性的AI技术,第二个到达那个“高峰”的人可能会有些微小改进,但基本上与第一个人相差无几。所以,能够系统性和持续性地争夺下一个高峰,并且成为第一个到达的人,正是确立领导地位的方式。NVIDIA一直在这样做,我们通过制造的GPU、AI工厂、网络系统和SoC展现给世界,希望设定行业的节奏,并始终保持全球最佳,这也是公司不断推动自己的原因。我们希望看到我们的梦想成真,看到我们设想中的未来技术能力以及它们给社会带来的好处真正实现。这些模型开发者也是如此,他们希望成为全球最佳,成为全球首创。

虽然Blackwell将在今年年底开始以数十亿美元的规模出货,但容量恢复可能还需要几周或一个多月的时间,因此,从现在到那时,生成式AI市场的动态变化非常迅速,大家都在争分夺秒,无论是出于运营需求,还是需要加速计算,他们都不再愿意建立更多通用计算的基础设施,即使是最先进的Hopper H200,如果要在现阶段为业务构建CPU基础设施或Hopper基础设施,决策是非常明确的。因此,我认为大家都迫切希望将当前价值万亿美元的既有基础设施转型为以Hopper为代表的现代化、最先进的基础设施。

Q:关于资本支出的投资回报率,投资者们正在讨论的是,有多少客户在投入大量资金并努力推动通用人工智能(AGI)的进展,他们追求新的能力高峰,不惜一切代价进行投资,因为这种能力的提升为行业和公司打开了许多新机遇,而另一方面,也有一些客户现在非常专注于资本支出和投资回报率之间的平衡,这样的区分是否合理,公司如何看待那些在这项新技术上投入资金的客户的优先级,以及他们对这些投资的时间框架的期望?

A:那些在NVIDIA基础设施上投资的客户能够立即获得回报,这是最佳的基础设施计算投资,回报率极高。理解这一点的最简单方法是回归基本原理,目前全球已有价值1万亿美元的通用计算基础设施,问题是你是否还想继续构建这样的基础设施。每建造10亿美元的CPU基础设施,可能只能带来不到10亿美元的租金收入,因为这类基础设施已经成为了商品化的产品,市场上已有大量现有的基础设施。因此,为什么要继续增加这类基础设施呢?相比之下,当企业构建基于Hopper甚至未来Blackwell的基础设施时,他们开始节省成本,获得巨大的投资回报。这是因为数据处理节省了成本,而数据处理已经是大部分开支的重要组成部分。例如,推荐系统已经在帮助企业省钱等。

第二点是,建设的所有基础设施都会被租赁出去,由于许多公司正在成立以开发生成式AI,你的计算能力会被迅速租用,从而带来很好的投资回报。

第三点是自身的业务需求,无论是为了在技术前沿占据一席之地,还是为你的互联网服务提供更先进的广告系统、推荐系统或搜索系统,生成式AI都能为你带来快速的回报,因此,无论是对自己的服务、商店,还是用户生成内容的社交媒体平台,生成式AI都是一种快速的投资回报。

总之,当前最好的基础设施计算方式就是加速计算,通用计算世界正在转向加速计算,人类设计的软件正向生成式AI软件过渡。如果你要为云端和数据中心进行现代化升级,采用NVIDIA的加速计算是最好的方法。

Q:关于收入增长趋势,既包括短期也包括长期的,公司提高了今年的预期,且采购承诺和供应义务的增加也显得相当乐观,但有一种观点认为,并不是所有客户都准备好接受液冷,有些机架可以使用风冷,能否详细说明这对Blackwell产品的增长形态会产生怎样的影响?另外,展望明年,显然那将是非常好的一年,而当再看向2026年,是否担心会有其他限制性因素,比如电力供应链,或者模型在某个时候开始变得更小?

A:我将倒着回答这个问题。首先,世界正在从通用计算向加速计算转变,全球的数据中心建设投入约为一万亿美元,而在未来几年中,这些数据中心都将采用加速计算技术,过去的数据中心没有GPU,只有CPU,但在未来,每一个数据中心都将配备GPU,这是因为我们需要加速工作负载,以保持可持续性,并继续降低计算成本,从而避免计算通胀。

其次,我们需要GPU来支持一种新的计算模式--生成式AI,这显然将在未来的计算领域中发挥变革性作用,所以,如果从结果往前推导,下一个万亿美元的基础设施显然会与之前的有所不同,并且将大幅加速。在Blackwell产品的配置方面,我们提供多种选择,Blackwell可以采用经典版本,这种版本是风冷的,而Grace Blackwell则是液冷的,越来越多的数据中心希望采用液冷,因为在液冷的数据中心,或任何电力受限的数据中心,无论其规模如何,都可以部署3到5倍于以往的AI算力。

液冷不仅其总拥有成本(TCO)更优,液冷还允许我们利用一种叫做NVLink的技术,将多达72个Grace Blackwell模块(相当于144个GPU)连接在一起。想象一下,144个GPU通过NVLink互联,这对于低延迟、高吞吐量的大型语言模型推理来说将是革命性的。我们发现,几乎每一家与我们合作的云服务提供商(CSP)都在同时部署风冷和液冷技术,因此,我非常有信心,这种技术将在市场上得到广泛应用。

关于第二个问题,明年确实会是一个非常好的一年,我们预计数据中心业务明年将显著增长,Blackwell将成为行业的一个重大变革者。这一势头还将持续到后年。计算领域正在经历两个平台的转型,这是非常重要的一个点,值得大家时刻关注,通用计算正在向加速计算转型,而人类编写的软件正在向生成式AI或人工智能学习的软件转型。

Q:关于第四季度的Blackwell收入,前几个十亿美元的收入是额外增加的吗?公司提到预期Hopper的需求将在下半年增强,这是否意味着Hopper的需求从第三季度到第四季度也会有所增长,并且在此基础上,Blackwell还会增加几个十亿美元的收入?

A:我们相信Hopper的增长势头将持续到下半年,我们为Hopper准备了许多新产品,现有的Hopper产品也将在未来几个季度,尤其是第三季度,继续增长,这些新产品将延续到第四季度,因此,与上半年相比,Hopper在下半年是一个增长机会,此外,我们还有Blackwell的增长,Blackwell将在第四季度开始扩展。

Q:如果全年毛利率在75%左右,那么第四季度的毛利率可能会在71%到72%之间,是否认为这是公司预期的毛利率退出水平?应该如何看待Blackwell扩展过程中毛利率演变的驱动因素?

A:关于毛利率问题,我们在第三季度的非GAAP毛利率大约为75%。我们将处理好所有正在进行的转型,我们相信可以在第三季度实现75%的毛利率,并且我们预计全年毛利率仍会保持在中间70%或大约75%左右,可能会在第四季度看到一些细微的变化,这与我们正在进行的转型和新产品推出的不同成本结构有关。然而,我认为你的预期低于我们的实际情况,虽然我们没有提供确切的指导,但我相信我们的预期比你所提到的更高一些。

Q:最近的财务报告显示,美国的收入环比下降,而几个亚洲地区的收入环比大幅增长,能否解释一下这种动态变化的原因?显然,中国的表现非常出色,这些因素的影响是什么?回顾前面关于毛利率的问题,这是否意味着考虑到所有这些有利的收入动态,公司在第四季度的总体收入环比增长率会加速?

A:在地理区域选择方面,披露的确非常具有挑战性,因为我们必须确定一个关键部分,那就是我们销售给谁,或者更具体地说,我们向谁开具发票,所以你看到的只是我们向谁开具了发票,而这不一定是产品最终的去向,甚至不一定是产品最终到达的终端客户,这些产品通常是交付给我们的OEMs(原始设备制造商)或ODMs(原始设计制造商),以及我们的系统集成商。

因此,你看到的变化有时只是他们在完成完整配置之前的一个小幅转移,之后这些配置会被送往数据中心、笔记本电脑等不同的终端,这种转移时有发生,不过,要注意的是,我们向中国开具的发票数据包括了游戏、数据中心以及汽车业务的收入。

回到关于毛利率和Hopper与Blackwell收入,Hopper将在下半年继续增长,并且我们目前看到的需求也支持这一点,至于具体的第三季度和第四季度的表现,我们还没有提供第四季度的指导,但从目前来看,我们确实认为第四季度是一个增长机会,此外,我们还将有Blackwell架构的贡献。

Q:公司迈上了非常好的发展道路,但面对的挑战只会越来越多,尤其是在复杂性不断增加和先进封装技术日益发展的世界中,如果公司退一步思考,这种背景会如何影响公司在垂直整合供应链合作伙伴关系上的潜在更大决策?以及这种改变对公司的利润率会产生怎样的影响?

A:首先,关于第一个问题,我们的速度之所以高,是因为我们模型的复杂性也在增长,同时我们希望在继续扩大规模的同时降低成本,我们相信,通过持续扩大AI模型的规模,我们将达到一种极其有用的水平,这将开启下一次我认为的工业革命,我们对此坚信不疑。我们将竭尽全力继续朝这个方向前进。

我们有着独特的能力去设计AI工厂,因为我们拥有所有的组件,没有这些组件的支持,几乎不可能每年都建立一个新的AI工厂,明年,我们将比公司历史上任何时候都出货更多的CPU和GPU,同时还有NVLink交换机、CX DPUs、用于东西向连接的ConnectX DPUs、用于南北向连接的BlueField DPUs,以及从超级计算中心到以太网的新数据存储处理产品,我们目前正在将AI带入以太网,这已经是一个即将成为数十亿美元的业务。

由于我们拥有所有这些资源,并且有一个统一的架构堆栈,这使得我们能够在完成新功能开发后立即将其引入市场,否则的话,只能先出货这些组件,然后再去寻找客户销售,并且还要有人去构建AI工厂,而构建AI工厂需要大量的软件支持。

关于整合问题,我们非常喜欢供应链的分散化,这样我们可以服务于像Quanta、富士康、惠普、戴尔、联想、Supermicro等众多合作伙伴,过去我们还能服务ZT system,直到最近它被收购,我们的生态系统合作伙伴非常广泛,包括GIGABYTE和华硕,这些伙伴可以将我们的架构以定制化的方式整合到全球的云服务提供商、企业数据中心中,公司的ODM和集成商的供应链规模庞大,因为全球市场非常巨大,而这一部分的工作我们不想做,也不擅长做,但我们知道如何设计AI基础设施,以客户期望的方式提供,并让生态系统进行整合。

Q:关于Blackwell产品周期,公司如何看待在利用NVLink时,机架级系统的动态组合?考虑到GB和NVL72的市场推广,公司如何看待这些动态?具体来说,在Blackwell产品周期中,如何看待机架级系统的组合?

A:Blackwell机架系统是作为一个整体机架进行设计和架构的,但我们是以分散的系统组件形式销售的,我们并不销售整个机架。

因为每个客户的机架设计都略有不同,有些是OCP标准,有些则不是,有些是企业级的,每个人的电源限制可能有所不同,CDU的选择、电源母线的选择,以及数据中心的配置和集成都有所不同,公司设计的方式是整体架构整个机架,软件将在整个机架中完美运行,然后我们提供系统组件,例如,CPU和GPU计算板会集成到一个MGX模块化系统架构中,MGX架构非常巧妙,我们的ODM、集成商和OEM遍布全球。

几乎任何配置都可以根据需求提供,我们会尽可能靠近数据中心完成集成和组装,因为机架相当重,从供应链开始,从我们出货GPU、CPU和交换机那一刻起,集成工作会在靠近CSPs和数据中心的位置完成,你可以想象全球有多少个数据中心,以及我们与ODM合作伙伴扩展到多少个物流枢纽。

由于我们将其展示为一个机架,并且总是以这种方式呈现和展示,可能会让人误以为我们在做集成工作,事实上,我们的客户不喜欢我们做集成,供应链也不喜欢我们做集成,他们希望自己进行集成,因为这是他们的增值部分,最终的设计、安装、调试、维修和替换整个周期都在全球各地进行,我们拥有一个庞大的ODM和OEM合作伙伴网络,他们在这一方面表现非常出色,所以集成并不是我们做机架的原因,实际上,我们不想成为集成商,而是想成为技术提供商。

总结:全球的数据中心正全面加速现代化,将整个计算架构转向加速计算和生成式AI,Hopper的需求依然强劲,而对于Blackwell的期待更是难以置信,重点介绍一下公司的五个关键方面:

1)加速计算已经达到临界点,随着CPU扩展速度放缓,开发者必须尽可能加速一切,加速计算始于CUDA X库,新库的发布为Nvidia开辟了新的市场,我们发布了许多新库,包括加速Pollers、Pandas和Spark的库,这些都是领先的数据科学和数据处理库,此外,还有用于向量数据库的QVs。

2)Blackwell是一个巨大飞跃,Blackwell不仅仅是一个GPU,而是一个AI基础设施平台,随着我们向合作伙伴和客户展示更多的Blackwell系统,其领先程度变得更加清晰,Blackwell的愿景花费了近五年时间和七个独一无二的芯片才得以实现。Blackwell AI工厂是建筑规模的计算机,Nvidia设计并优化了Blackwell平台,从芯片、系统、网络到软件,全栈端到端,帮助客户快速构建AI工厂,这些是非常资本密集的基础设施,客户希望尽快部署以获得最佳性能。

3)NVLink是一个重大突破,Blackwell系统可以将144个GPU连接到一个NV Link域中,提供高达259 TB/s的总带宽,这是Hopper的10倍,NVLink对于低延迟、高吞吐量的大型语言模型生成至关重要。

4)现在有三个网络平台,包括用于GPU扩展的NV Link、用于超算和专用AI工厂的Quantum Infiniband,以及用于AI在以太网上的Spectrum-X,生成式AI的前沿模型开发者正在竞相扩展到下一个AI高峰,以提高模型的安全性和智商。

5)Nvidia AI和Nvidia Omniverse正在开启AI的下一个时代,包括通用机器人,如今,企业AI浪潮已经开始,我们准备帮助公司转型,Nvidia AI企业平台包括Nimao、Nim Agent Blueprints和AI Foundry,生态系统合作伙伴可以帮助客户定制AI模型,并在Nvidia AI企业平台上部署定制的AI应用,对于每GPU每年4500美元,Nvidia AI企业平台为各地的AI部署提供了卓越的价值。随着Kuda兼容GPU安装基数从数百万增长到数千万,Nvidia软件的市场潜力将显著增加,Nvidia软件将在今年达到20亿美元的运行率。

海量资讯、精准解读,尽在新浪财经APP
美元 AI 英伟达 Nvidia

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 09-06 众鑫股份 603091 --
  • 09-02 慧翰股份 301600 39.84
  • 08-26 富特科技 301607 14
  • 08-23 速达股份 001277 32
  • 08-23 益诺思 688710 19.06
  • 新浪首页 语音播报 相关新闻 返回顶部