全文 | 英伟达业绩会:供应增长会持续、数据中心在转型……

全文 | 英伟达业绩会:供应增长会持续、数据中心在转型……
2023年08月24日 10:47 新浪科技

安装新浪财经客户端第一时间接收最全面的市场资讯→【下载地址

  北京时间8月24日上午消息,英伟达今日公布了该公司截至2023年7月30日的2024财年第二财季财报。报告显示,英伟达第二财季营收为135.07亿美元,同比增长101%,环比增长88%,创下历史纪录;净利润为61.88亿美元,同比增长843%,环比增长203%;不按照美国通用会计准则的调整后净利润为67.40亿美元,同比增长422%,环比增长148%(注:英伟达财年与自然年不同步,2024年1月30日至2024年1月29日为2024财年)。英伟达第二财季调整后每股收益和营收远超华尔街分析师预期,对第三财季营收作出的展望也同样远超预期,从而推动其盘后股价大幅上涨逾8%,突破52周最高价。

  详见:英伟达第二财季营收135.07亿美元 净利润同比增长843%

  财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官Colette Kress等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。

  以下是分析是问答环节主要内容:

  TD Cowen分析师Matt Ramsay:我们都注意到大型模型推断应用的迅速增长,投资者也都知道公司在机器学习训练领域牢不可破的市场地位。以往的小型模型推断方面的工作载荷都是在A6和CPU上完成的,随着包括GPT在内的大型模型的出现,推断方面的工作载荷出现了巨幅增长,我知道公司的Grace Hopper超级芯片和其他的一些产品也将满足这些需求,可否请管理层介绍一下如何划分小型模型推断和大型模型推断?公司的产品组合是怎样定位的?

  黄仁勋:你提到的这些语言模型都是非常伟大的产品,具备很多核心功能,具有理解非结构化语言的能力,而其核心是对人类语言结构的理解,其中编入了它们所学习到的大量人类知识。

  大型语言模型的创建都是求大的,然后才能衍生创建出各类较小型语言模型,本质上是一种类似教师-学生的模式,我们称之为“模型蒸馏”,我们所看到的小型语言模型,很可能都是从大型语言模型衍生,学习和蒸馏提炼而来

  未来的情况可能也是一样,大型语言模型具备一般性,通用型,或者“零样本学习”能力,具备训练应用程序的“神奇能力”,适用于各类计算设备,应用程序开发者就是要实现大型模型的向下“蒸馏”。

  小型模型可能也具备某些领域独特的优秀能力,但归纳总结能力不及大型模型,不具备我们所说的“零样本学习”能力。

  美银证券分析师Vivek Arya:第一个问题,公司明年增产的幅度大约是多少?因为管理层提到说每个财季都有增长。

  第二个问题,公司在超级加速器方面的支出增长并不大,能否请管理层谈谈未来一两年生成式人工智能市场的需求稳定性情况?考虑到公司所暗示的对于第三财季数据中心业务营收120到130亿美元的展望,管理层预计目前已经有多少比例的服务器是人工智能加速器驱动的?未来一两年的需求增长是否可持续?

  Colette Kress:我们的供应在未来几个季度到明年的时间里还将持续增长,具体增幅的数字我没有办法预测,因为这涉及到很多供应商,零件,以及包括HGX在内的众多即将发布的新产品,非常感谢供应商长时间以来对我们的支持。

  黄仁勋:全球数据中心的总装机金额在1万亿美元上下,包括了云计算,企业和其他方面的用途,这些数据中心正处于向加速计算和生成式人工智能的过渡阶段,这也是目前最重要的两个平台转换。

  加速计算是实现成本效益,能源效益和计算效益最大化的方式,而生成式人工智能也意外地推动加速计算的进展,让数据中心运营者更有理由开展平台转换,从一般性用途的计算到加速计算的转换,这是行业发展的长期趋势。

  伯恩斯坦研究分析师Stacy Rasgon:管理层能否介绍一下数据中心中,采用英伟达系统和GPU,以及不同类型系统比如DGX和H100,占比分别有多少?定价有什么不同?对于业务增长的驱动起到怎样的作用?

  Colette Kress:本财季,HGX系统是我们数据中心业务增长中非常重要的一部分,包括了Hopper 架构的HGX,以及Ampere 架构,我们仍在市场上销售这两种架构,并且都在大幅增长,推动了公司营收的增长,DGX的销售以及附加软件销售的结合也很重要,还有即将上市的GPU新品,包括L40S,未来将带来持续的增长。上一财季我们收入的最大推动力无疑是HGX系统。

  黄仁勋:你谈到的H100,我不知道你对这款产品的了解程度,H100其实是由35000多个零件和近1万亿个晶体管组成,重达70磅,我们需要动用很多机器人来安装,因为要能举起70磅的重量,也需要用到超级计算机来进行测试。

  我们可以称之为技术奇迹,制造强度非常大。虽然我们将其命名为H100,好像是从晶圆中生产出来的芯片一样,但H100实际上是HGX品牌下的产品,服务于世界各地的超级加速器,是非常大的系统组件。

  杰弗瑞分析师Mark Lipacis:公司在市场上的成功取决于软件生态系统以及芯片和硬件平台,请问管理层可否介绍一下软件生态系统的演变以及关键要素?有没有可能量化公司在这一领域的领先地位,比如构建它花了多少资源和人力?另外,如果我们来衡量英伟达平台的价值,硬件差异化与软件差异化所占的比例是多少?

  黄仁勋:我来用一些指标说明,英伟达有一个名为企业人工智能(AI Enterprise)的运行时(runtime),是我们软件堆栈的一部分。无论是在数据处理过程中所进行的端到端机器学习,在任何框架上进行的任何模型训练,或是推理和部署,向外拓展到数据中心(比如超级数据中心,或是VMware上的企业数据中心),几乎每家公司都会使用到这个运行时。

  客户可以在英伟达的任何GPU产品上执行此操作,我们在市场上拥有数亿个GPU,在云端拥有数百万个GPU,几乎每家云服务中都采用了英伟达的GPU产品

  可以按单个GPU配置运行,也可以按每次计算多GPU配置或多节点运行,每个GPU也可以运行多个活动或者计算情形,从单个GPU运行多种计算情形,到多个GPU、多个节点,再到整个数据中心的拓展。

  企业人工智能拥有大约4500个软件包、软件库,并且彼此之间具有大约10000个依赖项。如我此前所言,英伟达对于该运行时的升级和优化将不断持续,它是使计算加速的很好范例。

  代码组合的数量之多,以及应用程序组合的类型之繁,确实相当令人咋舌,我们也是花了二十年才走到这一步。

  我认为推动公司演进的关键要素可能有以下这么几个。一是架构。英伟达架构的灵活性、多功能性和性能令我们能够胜任前面提到的任务,从数据处理到训练、推理,推理前对数据所进行的预处理,再到后期的数据处理,语言进行标识化,以便用于训练。整个工作流程并非只有训练和推理,强度也要大得多,而且都是我们的工作重点。用户在实际使用这些计算系统的过程中,需要大量的应用程序,我们的架构组合能够加速中心计算程序,以保证最低的运算和保有成本。

  二是装机量。很多软件开发者都会寻求英伟达平台的帮助,由于我们有庞大的安装量,通过我们,软件开发者能够接触到最大数量的终端用户,提升业务或获得投资回报。

  三是触达范围。我们在云上部署,如此多的开发人员和客户都在使用我们的平台,比如通信服务提供商很乐意上云,包括用于内部使用——开发,培训,操作推荐系统、搜索或者数据处理引擎等等,以及训练和推理,我们在云上,也在企业之中。

  昨天,我们宣布了一项非常重大的消息,也值得注意。 VMware可谓是全球企业的操作系统,我们之间的合作也有好几年时间了,双方将生成式人工智能技术带给全球企业。鉴于我们的影响,全球系统开发者都希望将产品中置入我们的平台,来自世界各地的设备厂商和开发公司带来了巨大的分销效应。

  最后,我们的规模与速度,决定了公司能够在不同的使用模型和不同的计算环境中,持续发展极其复杂的软硬件、网络和计算堆栈,能够在保质保量的前提下加快工程进度。以往我们大约每两年引入一种新架构,而现在,大约每半年就会推出一种新架构或者新产品。

  有了以上所提到的这些特性,客户就更愿意将其公司业务置于我们的生态系统之中,这些因素的结合令英伟达与众不同。

  花旗证券分析师Atif Malik:我有一个问题问给Colette,管理层谈到了核心产品L40S,请问L40S能在多大程度上缓解供应紧张问题?能否谈谈该产品对于盈利能力的增长有多大贡献?

  黄仁勋:L40S的确是为不同类型应用而设计的,而H100专为大规模语言模型而设计,用于处理非常大的模型和海量数据。L40S的主攻方向是微调模型,微调预训练模型,这方面它做得非常好,而且L40S还装有一个多功能的变换引擎。一台服务器中可能安装有多个GPU,L40S专为超大数据中心的规模扩展而设计,客户可以轻松地将L40S服务器安装到世界各地的超大规模数据中心之中。它采用标准机架、标准服务器,一切都是标准的,因此易于安装。

  L40S还有围绕其设计的软件堆栈,BlueField-3基础设施计算平台的协同,以及我们与包括VMware,Snowflakes和ServiceNow在内众多企业的合作。L40S专为全球企业的IT系统而设计,这也是为什么慧与科技、戴尔联想以及其他大约20家系统制造商,选择同我们合作,建造大约100种不同配置的企业服务器,并将生成式人工智能介绍给全球企业。L40S确实是为不同类型的横向扩展而设计的,包括大型语言模型,生成式人工智能等不同场景的使用,L40S的起步非常优秀,世界各地的企业和超大规模数据中心都迫切希望部署L40S。

  摩根士丹利分析师Joe Moore:管理层介绍的这些数字令人印象深刻,而更为重要的是市场还有很多未得到满足的需求。公司营收在几个季度内增加了两倍多,当然,客户希望获得的更高的增长。能否请管理层谈谈目前市场还有多少未得到满足的需求?前面也提到说订单已经排到了明年。触及供需平衡的水平还要多长时间?

  黄仁勋:今年全年和明年都有不错的排单。公司已经开始与行业领先的通信服务提供商和数据中心建设者一起规划下一代基础设施。思考需求的最简单方式:世界正在从通用计算向加速计算过渡——企业提高吞吐量、提高能源效率、提高成本效率的最佳方式是将资本预算转移到加速计算和生成人工智能上。这样做,用户可以大量减少CPU工作载荷,实现CPU的效能提升。

  很多公司都意识到了这一点,这是一个转折点,认识到这一转变,并将资本投资转向加速计算和生成人工智能。推动需求的并不是一个单一的应用程序,而是一个新的计算平台,一个正在发生的新的计算转型,世界各地的数据中心正对此做出反应并正在出现广泛的转变。

  高盛分析师Toshiya Hari:首先想请Colette澄清一个数据。我记得上个财季,你提到说云服务约占公司数据中心业务营收的40%,消费者互联网业务占30%,企业业务占30%。听起来云服务和消费者互联网业务的贡献占比更大,可否澄清一下?

  另外一个问题问给黄仁勋,作为人工智能技术的关键推动者和深度参与者,以及基于客户项目的可见度,我很好奇的一点是,在人工智能提供足够人工智能应用程序或使用案例方面,以及在为客户带来合理回报方面,你抱有多大的信心?因为有人担心未来几年人工智能的需求水平可能不会再提高,管理层认为是否有足够的广度和深度来支持公司数据中心业务的持续增长?

  Colette Kress:关于你提到的公司数据中心业务的客户组成情况,我们是将其与计算业务和网络业务结合起来通盘考虑的,第二财季云服务占比50%多一点,消费者互联网业务次之,后面是企业和高性能计算业务。

  黄仁勋:我不愿意猜测未来,所以就从计算机科学行业第一原则的角度试着回答你的问题吧。相信大家都非常认可的一点是,通用计算并不是蛮力式通用计算,大规模使用通用计算不再是取得进步的最佳方式,因为能源成本太高,过于昂贵,而且应用程序的性能太慢。而如今,终于有了一种新的实现方式,就是所谓的加速计算,推动其加速发展的是生成式人工智能。

  加速计算可用于数据中心已有的各种不同应用程序,有助于减轻CPU负担,节省大量资金、成本和能源,并且吞吐量更高,这就是行业真正的反应。

  展望未来,投资数据中心的最佳方式,是将资本投资从通用计算上转移出来,集中到生成式人工智能和加速计算上。生成式人工智能提供了一种提高生产力的新方式、一种为客户提供新服务的方式,而加速计算可以助力客户节省资金和电力。潜在的合作对象,包括开发人员,应用程序和操作库,数量非常之多,我们已经做好准备进行部署。

  世界各地的数据中心都已经认识到这是部署资源、为数据中心部署资本的最佳方式,对于全世界的云服务商而言皆是如此,未来也会出现一大批新的GPU专业云服务提供商。其中一个比较著名的公司就是CoreWeave,他们做得非常好,而且大家现在也能看到很多遍布世界各地的服务当地的GPU专业服务提供商。

  为了助力企业资本投资的转移,我们需要全面支持企业的管理系统、操作系统、安全性,还有以软件定义的数据中心创建方式,而这就是VMware的工作。我们多年来一直与VMware合作,支持CPU虚拟化,GPU虚拟化以及GPU的分布式计算能力,支持英伟达BlueField的高性能网络。

  我们一直在开发的生成式人工智能操作库,现在都将由VMware遍布全球的、庞大销售网络(包含数千名员工)作为特殊产品来进行营销,该产品命名为VMware Private AI Foundation(私人人工智能基础),该产品将服务企业用户。

  结合惠普、戴尔和联想基于L40S的新服务器产品,任何企业都可以拥有最先进的人工智能数据中心,并能够参与生成式人工智能方面的技术进展。很难准确预测每个季度会发生什么,但我们看到了平台的转换,趋势非常明显。

  瑞银分析师Timothy Arcuri:公司网络解决方案在计算业务中的配售率有多少?包含计算服务的网络解决方案占比是不及还是多于一半?公司是否使用它来确定GPU分配的优先级?

  黄仁勋:先回答最后一个问题,我们不会用它来确定GPU分配的优先级,会让客户自己决定他们想要使用什么网络。对于正在建设超大型基础设施的客户来说,InfiniBand可以说是理所当然的选择。原因在于InfiniBand的效率非常高,对于10亿美元的基础设施而言,吞吐量提高约10%、15%或者20%就意味着巨大的开支节省,相比之下,公司网络服务收取的费用微不足道。

  无论是单一的应用程序,还是用于大型语言模型或大型人工智能系统的基础设施,InfiniBand都是绝佳的选择。

  如果你需要为许多不同的用户提供托管服务,并且以太网是管理数据中心方式的核心,那么可以了解一下我们刚刚发布的一款解决方案,我们称之为Spectrum-X。我们将把 InfiniBand的部分功能引入以太网,保证在以太网环境中也能够获得卓越的生成式人工智能能力。Spectrum-X才刚刚起步,需要BlueField-3平台,支持Spectrum-2和Spectrum-3以太网交换机,新增的性能非常惊人,BlueField-3以及与之配合的一整套软件使之成为可能。

  公司非常重视BlueField项目的发展,未来有巨大的增长空间,有望大获全胜,这就是网络内计算的概念,将大量软件放入计算结构中的想法正在通过BlueField-3而实现。

  Melius分析师Ben Reitzes:我的问题关于DGX云,能否谈谈管理层所看到的反响以及增长势头如何? Colette,能否谈谈软件业务目前的表现,对于营收和利润会有多大的贡献?

  黄仁勋:DGX云服务的策略是为了实现几个目标。第一,与世界各地的云服务提供商建立真正密切的合作伙伴关系,英伟达目前与世界各地约30000家公司合作,其中15000家是初创公司,有数千家生成式人工智能公司,增长最快的领域也是生成式人工智能,我们正与世界上众多人工智能初创企业合作,使用英伟达具有世界领先地位的云服务。

  第二,同其他云服务提供商一道,提升超大规模云的性能,超大规模云历来是为多租户设计的,而非为生成式人工智能等高性能分布式计算而设计的。

  第三,英伟达自身也使用非常庞大的基础设施,包括我们的自动驾驶汽车团队、研究团队、生成式人工智能团队、语言模型团队,都需要数量可观的基础设施。如果没有DGX系统,我们的优化编译器就不可能实现,优化软件和基础设施软件甚至需要人工智能来开发。

  我们的工程部门使用人工智能来设计芯片,这一点已经广为人知。还有我们的机器人团队、Omniverse计算平台团队等,也都需要人工智能,我们的内部消耗量也相当大,所以也把它们放在DGX云上。DGX云集合了丰富的使用案例和驱动程序,也取得了巨大的成功。

  Colette Kress:关于软件收入的问题,软件是公司几乎所有产品的一部分,无论是数据中心,GPU系统,游戏,还是未来可能推出的汽车产品。没错,我们也有独立的软件业务,无论是销售还是升级,业务量都持续增长,每年的业务规模大约为数亿美元。我们也在考虑将企业人工智能纳入到软件业务之中,包括我们的DGX,H100的PCIe版本。即使在云服务市场,我们也将看到更多的使用案例,已经开了一个好头,未来相信会有更多发展。(完)

现在送您60元福利红包,直接提现不套路~~~快来参与活动吧!
海量资讯、精准解读,尽在新浪财经APP

责任编辑:刘明亮

英伟达 财报

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 09-04 斯菱股份 301550 --
  • 08-30 热威股份 603075 --
  • 08-29 福赛科技 301529 --
  • 08-28 中巨芯 688549 --
  • 08-28 威尔高 301251 --
  • 新浪首页 语音播报 相关新闻 返回顶部