21世纪经济报道记者骆轶琪 广州报道
就在博通(Broadcom)和Marvell因为ASIC定制芯片需求大涨而推动业绩和股价快速拓展之际,英伟达似乎也在酝酿“反击”。
英伟达CEO黄仁勋早前多次透露过有进入ASIC芯片领域的想法,近日有市场消息显示,英伟达已经成立正式的ASIC部门,业务将主要落在中国台湾,为此正在该地频密挖角。显示出英伟达将持续夯实其在AI芯片领域地位的野心。
面对英伟达业务量和市值的水涨船高,其他在计算芯片领域有业务布局的企业也在筹措应对。近些年来,“超以太网联盟”等各类产业间协作与联合在持续推进,被外界“戏称”为“反英伟达联盟”。
随着AI大模型需求高涨,“反英伟达联盟”如何破除英伟达在软硬件方面积累多年的壁垒,进而抢占更多成长性空间,成为备受关注的命题。
那么英伟达在AI芯片领域的进一步攻城略地,将对“反英伟达联盟”带来怎样的影响?后者胜算几何?
“反英伟达”涌动
综合多家第三方机构的统计可见,在GPU市场,英伟达目前占据了大约90%份额,AMD虽然也在积极发布GPU产品,但因为在软件生态建设方面不够完善,到目前为止仅个位数百分比市场份额。
从商业逻辑看,市场呼唤更多元的参与者成为供应商就不难理解。但英伟达的不同在于,其在CUDA软件生态方面已积累十余年、有数百万开发者支撑。AMD在近日还被第三方测试机构指出,旗下某款AI芯片产品的软件适配有缺陷,影响了芯片最终的品质和易用性。
要抢占AI芯片更多份额,不妨先从英伟达的护城河着手:硬件GPU芯片+软件CUDA生态+NV Link连接。
“反英伟达联盟”的主体,主要是指以AMD、博通为代表的AI芯片厂商,AMD是GPU供应商并积极抢占更多份额,博通等厂商的崛起则主要源于其ASIC定制化芯片服务能力。
在硬件芯片层面,GPU多是用在通用加速计算场景;ASIC芯片是服务于特定厂商的定制化需求,多数是帮助云服务商(CSP,主要指亚马逊云、谷歌云等互联网巨头)提升细分领域的能力,例如帮助Meta聚焦社群算法调优、谷歌强化搜索引擎能力等。
不过ASIC芯片的短板在于,一旦框架决定后不可更改。因此早期这类芯片在应用过程中会被担心“试错”成本偏高、考验定义能力。
本质上看,ASIC芯片是随着AI推理需求逐渐走高而备受热捧的产物,与更擅长AI大规模训练的GPU芯片定位有所不同。多位业内人士也对21世纪经济报道记者表示,二者本身并不存在取代关系。
Omdia半导体研究总监何晖对21世纪经济报道记者分析,英伟达推出的产品为GPGPU,属于通用型并行计算芯片,优势是能够在并行计算过程中实现高速运算能力。在过去两年多AI快速发展、云计算需求高涨背景下,市场逐渐形成了对这类高算力服务器的强劲需求。
但国际AI巨头的核心竞争力是算法。对这类公司来说,早期多采用GPGPU是因为其高性能计算的特点,对打造通用能力有很大赋能;随着各家在大模型领域构建起自己差异性的核心算法,针对各自优势场景定制ASIC芯片会更符合具体需求,也能达到对自身算法的隐私保护目的。反过来,这些定制芯片和算法也会形成AI巨头的竞争壁垒。
“但GPU和ASIC两类架构对于AI巨头来说,一定是并行存在的。”何晖进一步分析,因为大量的通用运算是基础场景,GPU的使用在其中不可或缺,同时针对特定场景的算法定义,ASIC相比GPU会在性能和成本上更具优势,也更适宜帮助AI巨头形成算法差异化。
软件CUDA生态方面倘若要与英伟达抗衡,其他GPU公司还在持续弥补能力,但考虑到ASIC芯片并非通用而是专用,实际上能满足单一厂商的具体需求即可,因此从这个角度看,ASIC芯片服务商并没有过多软件生态建设需求。
连接能力是AI芯片厂商们正明显形成聚合的领域之一,显然也是想从能力方面与NV Link抗衡。这其中涉及的主要产品是交换机,其中分为以英伟达为代表的InfiniBand交换机和其他厂商着力推进的以太网交换机。
但业界普遍认为,InfiniBand交换机更适用于大规模AI集群搭建过程中的高速率通信交换要求。
2023年7月,超以太网联盟(Ultra Ethernet Consortium,简称UEC)成立,其中成员包括AMD、Arista、博通、思科、Meta和微软等,就是旨在解决以太网实际应用过程中的诸多不足。不难发现,其中有不少GPU和ASIC服务商或需求商。
Omdia数据中心IT团队首席分析师Manoj Sukumaran对21世纪经济报道记者分析,“目前大多数AI集群都部署了InfiniBand网络,因为其低延迟、拥塞控制机制等特性。但随着推理能力成为AI工作负载的更大一部分,大多数AI推理服务器都将通过以太网连接。”
他指出,UEC等联盟正在对以太网进行优化,以使其适合AI训练集群。“我们预计从2025年底或2026年开始,以太网将在AI训练集群中获得更多应用,并将成为InfiniBand的有力竞争者。”
英伟达要反击?
虽然目前看起来,被称为“挑战者”的ASIC芯片和GPU芯片厂商们正着力补足短板,但从特性看,显然ASIC和GPU二者还没有明显业务交集,只是ASIC芯片愈发符合正日益增长的AI推理需求。
Arm近日发布的2025年技术预判中也提到,人工智能的兴起使功耗成为关注焦点,这凸显出数据中心不能再围绕现成的计算解决方案来构建。相反,计算能力必须围绕特定的数据中心和工作负载来构建与设计,由此看到了向定制芯片发展的趋势。2025年预计这一趋势将延续,头部公司将为此在ASIC和chiplet芯粒等技术方面持续投入大量资金,以便更快速地设计和部署定制芯片。
咨询机构IDC预计,2024年中国加速服务器市场规模将达190亿美元,同比2023年增长87%。其中GPU服务器依然是主导地位,占据74%份额。到2028年,中国加速计算服务器市场规模将超过550亿美元,其中ASIC加速服务器市场占比将接近40%。
IDC中国分析师杜昀龙认为,从加速技术角度看,GPU服务器依然是最终用户的首要选择,但由于部分GPU产品受供应的限制,导致出现了算力缺口。另外,很多头部的互联网企业,为了降低成本以及更好地适配自身业务场景,也增大了自研ASIC芯片服务器的部署数量。综合两方面因素,使得ASIC人工智能服务器有大幅度增长。
恰恰在这个节点,英伟达再度出手,黄仁勋也很看好ASIC芯片的市场潜力。
不过,对于强于GPU芯片能力且构筑了强势生态的英伟达而言,要快速抢占“新赛道”ASIC芯片的市场机会,看起来并不那么容易。这也是市场传出英伟达需要大肆招人的原因。
ASIC芯片需求目前的赢家博通,也不是一个弱势的竞争对手。虽然大众消费者对其认知不多,但博通实际上一直是通信芯片巨头。
在何晖看来,当AI巨头发现通过堆硬件成本可以实现大规模计算能力后,那么连接效率也变得愈发重要。这也是连接领域早期已经有PCIe、UCIe等多种接口标准协议后,英伟达依然不断强调搭建NV Link能力的原因——英伟达早就意识到,高速连接能力与高速计算能力同样重要。
“当然我觉得进入ASIC市场对英伟达来说会有一些挑战,其实不能小看博通在连接方面的优势。”何晖进一步指出,虽然无法直接评判博通和英伟达哪家的连接协议更强,但博通在高速连接、逻辑计算方面有足够积累;英伟达在持续发挥并行计算优势的同时,也通过NV Link来补齐高速连接接口的能力,两家公司各有优势。
同理,Marvell与博通的业务逻辑类似,也是在无线通讯和连接、传统逻辑芯片领域有较强积累,待ASIC定制芯片需求上升后,也对其带来业务方面的利好。
“个人认为,英伟达进入ASIC芯片市场,并不一定完全是为了与博通争夺市场,而是一种防守策略。例如一旦英伟达主要服务的客户提出ASIC定制芯片需求,英伟达也有能力匹配,是一种商业策略角度减少客户流失的考量。”她分析道,“ASIC芯片市场空间在越来越大,各类型玩家进入后,各家都能受益于自身积累。”
整体来看,虽然AI推理市场随着AI大模型的商业化需求正迎来快速发展期,但对大模型/云服务厂商来说,GPU芯片和ASIC芯片需要兼而有之。
TrendForce分析师邱珮雯就对记者指出,ASIC在可见的未来中不会完全取代GPU,相较于高阶英伟达芯片如B200,ASIC目前开发运算效能仍有较大落差。“云服务商除了采用英伟达的GPU芯片以外,也在积极研发自身ASIC芯片,除了针对自身应用定制化以外,还能降低对英伟达芯片的依赖度,并同时减少支出成本。”
“AI行业发展到现阶段,通用GPU芯片和定制化ASIC芯片各自可以满足不同需求,会是一种互相结合的方式为AI巨头提供服务。”何晖总结道,ASIC芯片会是未来AI架构中不可或缺的一部分,GPU也是。国内外发展AI大模型的大厂,侧重的业务和主要架构都有所不同,叠加AI大模型本身还在发展初级阶段,未来仍有很大发展空间。因此硬件/芯片方面后续如何形成标准模式,目前都还没有完全定义清晰。只是行业在应用过程中发现,第一阶段要堆通用算力,第二阶段要定义自己的硬件架构,未来不排除会有新的硬件或芯片类型出现,衍生出更多需求。
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)