华福证券发布研究报告称,海外自2022年OpenAi发布的ChatGPT将大型语言生成模型和AI推向新高度以来,全球各大科技巨头纷纷拥抱AIGC。大模型通常包含数亿级的参数,需要消耗大量算力。服务器作为算力的发动机,算力需求的增长将迎来AI服务器及服务器需求的快速增长。
建议关注:服务器产业链整机生产商中科曙光(603019.SH)、弘信电子(300657.SZ)、朗科科技(300042.SZ)和零部件厂商等核心环节相关机遇,如芯片厂商海光信息(688041.SH),存储厂商朗科科技,内存接口厂商澜起科技(688008.SH),接口厂商裕太微(688515.SH),服务器散热厂商飞荣达(300602.SZ),服务器电源厂商欧陆通(300870.SZ)等。
华福证券观点如下:
服务器作为算力发动机,海内外需求共振。
国家发展改革委等部门关于深入实施“东数西算”工程加快构建全国一体化算力网的实施意见,其中提到算力是数字经济时代的新型生产力,以算力赋能经济发展为主线,发挥全国一体化算力网络国家枢纽节点引领带动作用,协同推进“东数西算”工程,并构建联网调度的全国一体化算力网。海外自2022年OpenAi发布的ChatGPT将大型语言生成模型和AI推向新高度以来,全球各大科技巨头纷纷拥抱AIGC。大模型通常包含数亿级的参数,需要消耗大量算力。服务器作为算力的发动机,算力需求的增长将迎来AI服务器及服务器需求的快速增长。
AI服务器产业链包括芯片CPU、GPU,内存DRAM和内存接口及HBM,本地存储SSD,NIC、PCIe插槽、散热和等。
服务器CPU架构包括X86、ARM、MIPS和RISC-V等。AI芯片是AI服务器算力的核心,专门用于处理人工智能应用中的大量计算任务,AI芯片按架构可分为GPU、FPGA、ASIC和NPU等。HBM作为内存产品的一种,已经成为高端GPU标配,可以理解为与CPU或SoC对应的内存层级,将原本在PCB板上的DDR和GPU芯片同时集成到SiP封装中,使内存更加靠近GPU,使用HBM可以将DRAM和处理器(CPU,GPU以及其他ASIC)之间的通信带宽大大提升,从而缓解这些处理器的内存墙问题。服务器本地存储的选择方案则包括HDD和SSD,SSD的主要硬件组件包括NANDFlash、主控芯片和DRAM,核心软件为企业级SSD的固件,数据中心级SSD已不再是一个硬盘,而是一个具备处理、缓存、计算、安全保护的小型系统,SSD渗透率有望逐渐提升。
从服务器和AI服务器构成看,芯片和存储都是核心,决定着AI服务器的算力和宽带大小。
传统的通用型服务器中,售价10424美金的2xIntelSapphireRapidsServer,CPU的成本占比约17.7%,内存和硬盘占比超过50%。而AI服务器,售价为268495美金的NvidiaDGXH100中,CPU占比仅1.9%,GPU占比高达72.6%。内存价值量提升,但占比下降至4.2%左右。AI服务器较通用服务器价值量提升明显。
风险提示:地缘政治风险,AI发展不及预期,客户认证及产品验证不及预期风险。
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)