财联社7月8日讯(记者 付静)“对GPU厂商而言生态最重要,国内生态正在走向越来越好。”
“我认为算力的热度没有消退,只是今年有更热的板块如低空经济等出现了,实际上算力需求也没有减少。”
“我感觉现场至少有三分之一都是算力相关的参展企业。”
大模型技术爆发以来,有关算力的讨论声不断,在近日举行的2024世界人工智能大会暨人工智能全球治理高级别会议(以下简称“WAIC 2024”)期间,算力话题亦热度颇高。
WAIC 2024期间,财联社记者注意到,中国电信(601728.SH)、中国联通(600050.SH)、中国移动(600941.SH)、华为、中兴通讯(000063.SZ)、中科曙光(603019.SH)、燧原科技、摩尔线程、墨芯人工智能等头部算力企业齐聚,同时中国电子、联想、厚德云、首都在线(300846.SZ)等携智算基础设施亮相;算力服务器厂商方面,则有浪潮信息(000977.SZ)、神州数码(000034.SZ)、思腾合力、神一信息、并行科技、蓝耘等。
财联社记者多方采访获悉,当前国内智算行业生态正进一步完善,国产算力中心的商业化落地新范式成为业内关注方向。
WAIC 2024期间,由燧原科技主办的“共迎智算新时代 共建智算新生态”分论坛上,中国工程院院士、清华大学教授郑纬民表示,大模型对算力产生爆发性需求大概有四个过程,一是模型研发阶段写软件、调软件、优化软件,二是训练阶段需要很大算力,三是模型微调阶段做垂直领域训练,四是真正使用时用户请求实时处理,即推理阶段。
正是基于此,中信建投研究所所长、TMT行业首席分析师武超则在WAIC 2024期间称,今年相较于去年投资的关切点更多在于算力,整个算力方面的资本开支不管是北美还是国内都在大幅增长。
而从各厂商当前进展看,财联社记者最新从摩尔线程方面获悉,其AI旗舰产品夸娥(KUAE)智算集群解决方案从千卡级别扩展至万卡规模。据了解,全新一代夸娥智算集群实现单集群规模超万卡,浮点运算能力达到10Exa-Flops,为万亿参数级别大模型训练提供算力基础。
2023年,摩尔线程基于MTT S4000大模型智算加速卡推出了以夸娥智算集群为核心的智算中心产品组合,目前已经建立了从芯片、板卡、集群到软件的全栈AI智算产品线。
财联社记者亦了解到,中兴通讯具备从算力、网络、能力、智力到应用的全栈全场景智算解决方案;燧原科技在四川成都、湖北宜昌和甘肃庆阳等地展开了智算中心的建设及合作;WAIC2024期间,墨芯人工智能展出全新AI推理高性能计算卡墨芯S40;浪潮信息则展示了新一代模块化液冷智算中心,可做到两周内交付,并实现同等参数模型训练效率比业界高1倍。
郑纬民称,大模型从研发到使用的过程对算力提出了很大需求,而算力成本很高,训练成本70%在于算力。同时财联社记者采访获悉,日益增长的模型参数、海量的语料库及广泛的场景需求对算力基础设施提出了挑战,如何使超大规模集群能够同时具备高效率和高性价比,受到业界关注。
燧原科技创始人兼COO张亚林在WAIC 2024期间表示,国产算力中心的商业化落地新范式,需要把AIDC和AIGC结合在一起,形成双轮驱动。智算中心谁来建设、谁来运营、谁来使用,是三个很重要的问题,其关键点在于谁来用。只有用户愿意来使用算力,才有人愿意来运营,投资建设方才能收回成本,形成可持续发展的闭环。
他表示,“智算中心的生态有板卡、软件栈、服务器等作为底座,有云服务、大模型、行业模型、应用作为整个消纳和技术栈,有基建、集成、运维和运营。一个智算中心要建,远远没有大家想的那么简单,因为最终要算得过来账。算力租赁和算力消纳真正会驱动中国智算中心的建设。”
“Scaling Law整体由性能驱动,(需要有)有很大的集群,有非常强的计算、存储、互联往上推进。如何能够真真正正推进国产训练,其实是要依赖于大量的工程实践和大模型的热启动。”张亚林称。他认为,商业模式驱动的延迟、吞吐、利用率、可靠性、稳定性,才能真正驱动架构的计算、存储、互联。
有业内人士表示,英伟达B200在计算、存储、互联等方面做成了“多边形战士”。武超则也谈到,英伟达的主要壁垒不仅是单卡计算性能,还有其通信能力、开发者和计算生态,不过接下来国产算力的发展也受到看好。
值得关注的是,生态方面,国内算力产业在加紧布局,例如中兴通讯正在推动与GPU厂家、模型厂家、运营商及行业伙伴在智算方面的优势互补。WAIC 2024期间,多家企业也特别对当前各自的生态版图做出展示。
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)