导读:12月13日,博通公布新一季度财报,截至目前,股价大涨超30%。与此同时,英伟达开始了漫长的阴跌,较高点跌幅近10%,市值蒸发约3000亿美元。二者泾渭分明的关键正是博通新推出的ASIC芯片服务。博通如何撼动英伟达在算力领域的霸权?ASIC有何过人之处?国内投融现状如何?本文尝试分析和探讨。
01 被寄予厚望的博通
博通是一家专注于半导体和基础设施软件解决方案的多元化公司,在无线连接、网络处理器和定制AI芯片领域取得了领先优势。12月13日,公司CEO Hock Tan在业绩说明会上表示,公司2027年超大规模客户的AI收入将达到600-900亿美元,几乎每年翻倍。上述言论一举燃爆市场热情,博通股价当日上涨超24%,成为人类历史上第九家市值突破1万亿美元的公司。
博通说的AI收入究竟是什么?除了其优势的交换机业务外,最大的部分在于ASIC芯片服务。ASIC是一种为某种特定任务设计的芯片,一般会被应用于特定设计和制造的设备中,执行必要的功能。在AI芯片中,ASIC被用来处理特定的任务,且相比GPU而言,拥有更高的处理速度和更低的能耗。
图表 1:AI芯片的分类
按功能分类,AI芯片可以分为训练卡和推理卡两个类型。训练卡也叫大卡,通常拥有更高的计算能力和内存带宽,以支持训练过程中的大量计算和数据处理;推理卡也称小卡,其参数较低,只需满足推理需求。一般情况下,训练卡可以作为推理卡使用,但推理卡不能作为训练卡使用。简单来说,大模型的训练需要大量的训练卡形成显卡集群,而在应用上,则需要推理卡运行AI模型进行计算。
在2023年以来的AI 大规模基建中,“百模大战”推升了算力需求。对大模型的预训练中,训练卡是焦点,而 GPU 由于高适配性、性能强大成为了训练卡的标配。英伟达也几乎垄断了所有算力市场,其在 AI芯片市场占有率超过 90%。
英伟达为什么这么强大?原因在于英伟达卖出的不仅仅是算力芯片,而是一整套生态系统。英伟达生态系统中手握三张王牌,包括领先的GPU、十年磨一剑的CUDA以及网络传输NvLink。英伟达自2010年以来发力AI算力,尤其是近年来推出的H100、H200、GB200等,单卡算力稳坐第一梯队。CUDA是一套芯片编程模型,为开发者提供了利用GPU进行高效并计算的全方位支持。NvLink采用点对点结构,通过串列传输实现高速数据运输,传输速率是传统PCIE的7倍。
不过,目前局面正在改变,博通可能是最接近英伟达的挑战者。一方面博通在网络芯片、交换机和路由器方面有强大的积累,其推出的千兆以太网方案,其传输速率不弱于Nvlink。另一方面,博通在半导体领域浸润多年,可帮助客户完成从设计到封装所有的环节。在生态方面,由于执行特定的任务,一般不需要复杂的生态环境。简而言之,博通打出的组合拳约等于以自己在交换芯片方面的积累和定制芯片加上客户自己的软件硬撼英伟达。
前景很美好,但现实很骨感。就目前而言,英伟达其三季度在AI方面收入308亿美元,而博通最近一个季度AI收入仅为37亿美元,体量差距还相当大。而市场对博通的追捧可能仅仅意味着反抗英伟达霸权的开始。
据Marvell预测,2023年ASIC占数据中心加速计算芯片的16%,规模约为66亿美元;随着 AI 计算需求的增长,ASIC占比有望提升至25%,预计2028年数据中心ASIC市场规模将提升至429亿美元,CAGR为45.4%。就整体规模而言,AI ASIC增速相对较快,但赶上GPU尚需时间。
图表 2:2023-2028E全球ASIC市场规模(亿美元)
02 焦头烂额的英伟达
英伟达最近不是很太平。从官宣的GB200 AI服务器出货延迟,到被美国、中国、欧洲等全球多地政府联合调查反垄断,英伟达似乎已经陷入多事之秋。然而,这并不能证明英伟达的虚弱。英伟达的麻烦似乎仅仅只是他强大的副产品。
英伟达傲人的市场份额证明他在AI芯片领域几乎已无敌手。就目前而言,各大云厂商选择英伟达的产品时,要么选择捆绑销售,要么买多者先得,要么只能原地等上好几个月。正如AWS CEO表示:“目前GPU市场只存在一种选择,那就是英伟达,若是市场上有更多选择,我们相信客户会欢迎。”
云厂商并非没有准备,它们正着手开发ASIC以减轻对英伟达的依赖。如微软已推出了首款用于内部数据业务的数据处理器Azure Boost DPU,亚马逊宣布将推出Trainium2芯片。最激进的当属谷歌,其推出的Trillium TPU,已用于大模型Gemini 2.0的训练中,而帮助谷歌完成这一宏伟设计的,正是博通。
博通与谷歌的合作开始于2016年,迄今为止已经迭代至第七代产品。在最新一期的财报电话会议中,博通表示谷歌、Meta、亚马逊都是公司AI定制芯片的大客户,此外,还有两家大型客户正在要求博通对其产品进行深入开发。博通CEO Hock Tan表示,在未来,50%的算力都会是ASIC,至于超大规模的云计算厂商,他们将100%使用ASIC。
不过,花旗的多位分析师对此表达了不一样的看法,他们认为到2028年,GPU至少会占据AI加速器总市场规模的75%,而博通为代表的ASIC阵营将至少占据25%。不管怎样,GPU市场的一部分空缺将会被ASIC吃下,而这背后代表的,正是AI算力生态的变化。
前OpenAI创始人IIya Sutskever在不久前的NeurIPS 2024大会上陈述了一个观点:“由于数据是有限的,因此模型的预训练时代即将结束,AI的重心将由训练转向推理。”过去的一年里是属于大模型追赶者的:行业领导者OpenAI的GPT-5频繁跳票,追赶者的距离越拉越小。与此同时,AI应用开始风起云涌,AI Agent、端侧AI开始频繁出现在C端用户视野里。
在预训练时代,AI芯片主要是训练卡。而GPU芯片由于灵活且兼容,占据了大部分的市场规模。不过事情正在悄悄变化,对推理领域的倾斜将会导致AI芯片的格局发生改变。而由于ASIC芯片更加“专一”,更快的处理速度和更低的能耗下,它也被广泛认为更适合推理端。
不过,英伟达在训练卡上的壁垒仍然牢不可破。目前云厂商对博通的追捧并非完全出于性能要求,而更多的是对英伟达的替代考虑。而只要大模型还在继续迭代,算力需求还在增长,英伟达的优势就依然存在。市场对ASIC的追捧也许会让英伟达头疼,但却不会大伤元气。
03 中国AI芯片投融动态
由于全球算力的不平衡,目前国内与海外相比存在一定的差异。国内AI芯片公司多以ASIC为主,如知名的昇腾、寒武纪等都属于这一品类。在近两年的全球大模型竞赛中,中国企业并未落后太多,而在未来百花齐放的应用时代,ASIC将不再成为软肋,也将随着AI芯片的发展大放异彩。
AI芯片市场近年来呈现出强劲的增长势头。2024年全球AI芯片市场规模预计将达到712.52亿美元,同比增长33%,并有望在2025年进一步增长至919.55亿美元。在中国市场,2023年AI芯片市场规模达到1206亿元,同比增长41.9%,预计2024年将增长至1412亿元。据来觅数据显示,AI芯片亦是今年最为活跃的赛道之一,融资轮次仍偏向早期,但部分明星项目已得到市场认可,资本正不断加码。感兴趣的读者,可以登录Rime PEVC平台获取AI芯片赛道全量融资案例、被投项目及深度数据分析。
图表 3:2024年以来AI芯片领域投融情况
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)