电信ETF(159507)详解——AI引爆算力需求增长

电信ETF(159507)详解——AI引爆算力需求增长
2023年07月14日 23:58 市场资讯

安装新浪财经客户端第一时间接收最全面的市场资讯→【下载地址

本轮算力需求增长,来自于ChatGPT引爆了新一轮的AI革命。大模型参数量持续提升,对于算力资源需求提升。GPT模型对比BERT模型、T5模型的参数量有明显提升。GPT-3是目前最大的知名语言模型之一,包含了1750亿(175B)个参数。在GPT-3发布之前,最大的语言模型是微软的Turing NLG模型,大小为170亿(17B)个参数。GPT-3的paper也很长,ELMO有15页,BERT有16页,GPT-2有24页,T5有53页,而GPT-3有72页。回顾GPT的发展,GPT-1只有12个Transformer层,而到了GPT-3,则增加到96层。其中,GPT-1使用无监督预训练与有监督微调相结合的方式,GPT-2与GPT-3则都是纯无监督预训练的方式,GPT-3相比GPT-2的进化主要是数据量、参数量的数量级提升。

图:不同模型训练消耗算力

资料来源:Wind,天风证券资料来源:Wind,天风证券

寻找产业环节中的闪亮之“星”,光模块值得持续关注。光通信网络是算力网络的重要基础和坚实底座,光模块龙头公司预计这将进一步推动海外云巨头对于数据中心硬件设备的需求增长与技术升级。光通信模块行业的下游主要是通信设备制造商和大型互联网企业,光通信模块产品的运用领域涵盖了云计算数据中心、宽带接入及长距离传输等行业。高速光通信模块是光通讯设备中的核心组件,作为信息化和互连通信系统中必需的核心器件,光通信模块的发展对5G通信、电子、大数据、互联网行业的影响至关重要。同时,也只有不断提高光通信转换模块产品的速率、积极研发出更高规格的模块,才能满足下游产业迅速发展的要求。Lightcounting预测,全球光模块的市场规模在未来5年将以CAGR11%保持增长,2027年将突破200亿美元。

图:全球光模块市场规模(百万美元)

资料来源:Wind,Lightcounting,天风证券资料来源:Wind,Lightcounting,天风证券

根据Lightcounting数据,过去10年中国光模块企业全球市场份额持续拓展,全球光模块出货量前十名的公司,从2010年的仅有WTD一家中国企业,发展到2022年已经有7家中国企业,且已有一家中国企业已经位列全球市场并列第一。国内光通信产业链不断成熟,成本优势、规模优势、技术从追赶到赶超等,推动中国光模块企业全球市场份额有望进一步提升。

光芯片及组件是光模块中最大的成本项。光芯片加工封装为光发射组件(TOSA)及光接收组件(ROSA),再将光收发组件、电芯片、结构件等进一步加工成光模块。光芯片的性能直接决定光模块的传输速率,是光通信产业链的核心之一。

图:光模块结构示意图

资料来源:Wind,天风证券资料来源:Wind,天风证券

根据光模块龙头公司披露的2016年1-8月光模块成本构成,芯片成本占60-70%(光芯片及组件占50%,比重最大;电芯片成本占15%),人工和其他成本占23%。光模块中的芯片包含:光芯片(激光器芯片和探测器芯片)、电芯片(LD驱动芯片、TIA跨阻放大芯片、CDR时钟和数据电路、DSP、MUX&DeMUX等)。

图:某光模块龙头公司2016年1-8月成本构成

资料来源:Wind,天风证券资料来源:Wind,天风证券

异构计算或成为主流。在CPU+GPU的异构计算架构中,GPU与CPU通过PCle总线连接协同工作,CPU所在位置称为主机端(host),而GPU所在位置称为设备端(device)。基于CPU+GPU的异构计算平台可以优势互补,CPU负责处理逻辑复杂的串行程序,而GPU重点处理数据密集型的并行计算程序,从而发挥最大功效。

越来越多的AI计算都采用异构计算来实现性能加速。阿里第一代计算型GPU实例,2017年对外发布GN4,搭载NvidiaM40加速器.,在万兆网络下面向人工智能深度学习场景,相比同时代的CPU服务器性能有近7倍的提升。

图:GPU+CPU异构计算

资料来源:Wind,天风证券资料来源:Wind,天风证券

AI服务器作为算力基础设备有望受益于算力需求持续增长。AI服务器是异构服务器,可以根据应用范围采用不同的组合方式,如CPU+GPU、CPU+TPU、CPU+其他加速卡等。IDC预计,中国AI服务器2021年的市场规模为57亿美元,同比增长61.6%,到2025年市场规模将增长到109亿美元,CAGR为17.5%。

图:中国算力发展情况

资料来源:Wind,天风证券资料来源:Wind,天风证券

未来随着应用端的爆发,推理侧需求或将高速增长,带来AI服务器快速发展机遇。ChatGPT用户数快速增加,上线仅5天,用户数便突破百万,上线两月后,ChatGPT月活用户数突破1亿,根据Similarweb统计,OPENAI网站用户访问量快速增长,我们预计未来用户数仍将快速提升,带来交互对话的产生,提升推理所需算力基础设施需求。

目前ChatGPT的主要应用场景包括但不限于无代码编程、小说生成、对话类搜索引擎、语音陪伴、语音工作助手、对话虚拟人、人工智能客服、机器翻译、芯片设计等。随着算法技术和算力技术的不断进步,ChatGPT也有望进一步走向更先进功能更强的版本,在越来越多的领域进行应用,为人类生成更多更美好的对话和内容。中长期发展很有可能重构娱乐、文学等模式,并赋能教育、金融、工业、医疗等实体。短期应用在搜索+客服,中期利好内容创作+文娱生活场景,长期看好B端的产业机会。

图:长期看好B端产业机会

资料来源:Wind,天风证券资料来源:Wind,天风证券

关注AI服务器产业链机遇。AI服务器核心组件包括GPU(图形处理器)、DRAM(动态随机存取存储器)、SSD(固态硬盘)和RAID卡、CPU(中央处理器)、网卡、PCB、高速互联芯片(板内)和散热模组等。

AI服务器的系统功耗和算力性能明显提升,推动数据中心及冷却方案变革。以NVIDIA的DGXA100640GB为例,其配置了8片A100GPU,系统功耗达到最大6.5千瓦,性能达到5petaFLOPSAI/10petaOPSINT8未来随着A100服务器的应用增多,我们认为或将显著提升数据中心机柜的功耗。

制冷散热主要方式:目前发展的散热冷却技术主要有风冷和液冷两大类,其中风冷包括自然风冷和强制风冷,适用的机柜功率密度较低;液冷分为单相液冷和相变液冷。散热冷却系统所采用的冷却介质、冷却方式不同,移热速率差距大。传统风冷最高可冷却30kW/r的机柜,对于30kW/r以上功率密度的机柜无法做到产热与移热速率匹配,会使机柜温度不断升高导致算力下降甚至损害设备。

可以看到,采用A100后服务器功率大幅提升,参考上文若采用英伟达DGXA100640GB服务器,单机柜的功率或将超过30kW,此时更适宜应用液冷的冷却方案。

图:数据中心冷却类型图

资料来源:Wind,天风证券资料来源:Wind,天风证券

运营商或将推动液冷快速应用。6月5日,三大电信运营商邀请液冷产业链的相关代表企业共同面向业界发布了《电信运营商液冷技术白皮书》,其中提到,电信运营商共同联合产学研上下游,全力打造高水平液冷生态链,同时明确技术路线现阶段主要推进冷板式液冷与单相浸没式液冷两种技术路线,绘制了液冷发展目标蓝图,在2025年及以后50%以上项目规模应用液冷技术,运营商或将推动液冷在机柜/数据中心中的应用。

风险提示:基金有风险,投资需谨慎。以上内容仅供参考,不构成本公司任何投资建议或保证,也不作为任何法律文件。观点和预测仅代表材料制作时结合当时市场作出的分析判断随着市场行情等因素变化,上述判断可能发生改变。未经同意请勿引用或转载。

海量资讯、精准解读,尽在新浪财经APP
光模块 芯片 cpu 光通信 gpu

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

7X24小时

  • 07-19 浙江荣泰 603119 --
  • 07-17 威迈斯 688612 47.29
  • 07-17 君逸数码 301172 31.33
  • 07-17 舜禹股份 301519 20.93
  • 07-17 盛邦安全 688651 39.9
  • 产品入口: 新浪财经APP-股票-免费问股
    新浪首页 语音播报 相关新闻 返回顶部