炒股就看金麒麟分析师研报,权威,专业,及时,全面,助您挖掘潜力主题机会!
英伟达财报后股价下跌较多,市场对AI算力发展的隐忧主要集中在资本开支和回本周期。本周英伟达发布2025财年第二季度财报,营收达到300亿美元,超过上季度指引280亿美元,同比增长122%,净利润达到166亿美元,同比增长168%,并指引下季度应收325亿美元(上下浮动2%)。发布财报后,公司股价跳水,盘后一度跌超8%,以科技股为主的纳指也同步下跌。
作为全球算力龙头第一股,分析英伟达盘后大跌的原因,本质上是分析市场对AI算力后续发展的担忧,我们认为,无论是对B系列推迟、GB芯片良率、公司盈利能力的担忧,都可以被归纳总结为对AI算力行业的三大担忧:
【担忧1:CSP、科技龙头的巨额Capex是否可持续】
云厂商和大型科技公司的资本支出决定了英伟达的营收增速和AI算力的发展速度。英伟达在电话会中披露,CSP厂商(微软、亚马逊、谷歌等)约占数据中心收入的45%,互联网、消费级科技公司(Meta、特斯拉等)占数据中心收入超过50%,而数据中心在英伟达整体营收中贡献比例超87%,因此科技公司的资本支出直接影响英伟达和AI算力发展速度。
我们认为,科技巨头资本支出的可持续性成为市场关注焦点,区别整体capex和算力侧capex,后者可持续性支撑力强劲。美国四大CSP(微软、亚马逊、谷歌、Meta)2024年二季度资本支出总额达到529亿美元,同比增加56%,增速达到近几年的顶峰水位,市场对于高增速的可持续性担忧较高。我们认为,对于资本开支可持续性的担忧应该区分整体capex和算力侧capex,根据Dell’Oro Group,预期2027年AI 基础设施支出将推动数据中心资本支出超5000亿美元,而主要科技公司也多次强调对AI的资本支持:亚马逊24Q2资本开支176亿美元,公司指引,鉴于来自AWS客户的需求强劲增长(其中大多包含生成式AI组件),下半年公司资本支出将持续增加,且capex大部分是用于支持技术基础设施建设;Meta上调资本开支指引,大量投资基础设置以提供算力支持;Alphabet (谷歌母公司)预期2024 年支出将显著增加,将继续投资服务器、数据中心等基础设施;微软资本开支指引增加,并明确指出,资本开支全部由云产品和算力投资构成。
【担忧2:高额AI芯片的投资回报率】
四大云厂商对算力侧的巨额资本开支,也引发市场对于AI芯片投资回报率的担忧。微软资本开支在2024全年预计将突破500亿美元,谷歌和亚马逊预计也会达到500亿美元/年的水准,Meta预计会在2024年投资400亿美元,巨额投资引发市场对AI芯片“性价比”的讨论,投资回报率成为核心议题。微软是较早在财报中量化给出AI业务回报情况的公司,Azure云一季度增长31%,微软提到其中7个百分点是AI服务贡献。
我们认为,现阶段重点不在“性价比”而在于卡位优势和军备竞赛,投资不足的风险远大于过度投资。从长远来看,AI算力侧投资的战略意义远超单纯的性价比考量,一方面,在快速发展的AI领域,技术领先意味着能够提供更先进的服务,吸引更多的客户,从而在市场上占据主导地位,因此即使初期AI芯片投资是所谓的“低性价比”,但为了在算力军备竞赛中保持技术领先,巨额capex必不可少;另一方面,高性能的AI服务能够吸引并锁定高端客户(对服务质量和稳定性有更高要求),一旦客户依赖于某个云服务商的AI服务,不太可能轻易转换到其他竞争对手,因此卡位优势及其关键,AI芯片的早期投资是卡位的主要基础。正如谷歌在24Q2财报会议中指出,对于AI投资不足的风险远远大于过度投资的风险。
【担忧3:下游爆款何时出现】
对于下游应用的担忧是AI发展之初就存在的“老生常谈”的问题,市场主要担心的是,面对巨额基础设施投资的增长,下游需求增速会因为没有“AI爆款应用”而无法匹配。
AI应用增长缓慢背后的原因较为复杂,一方面是AI大模型使用门槛高,另一方面通用AI与专业领域需求也存在较大不匹配性,此外高成本和慢响应速度影响用户体验和商业化,各种原因下的结果就是在GPT4面世近一年后,全球AI爆款尚未诞生。
我们认为,应用层的爆款难以提前预测,但本质上市场对于爆款的担忧,是在关注大语言模型的热度是否能持续支撑供给侧的高投入,而GPT3.5-GPT4-GPT4.5升级后引发的话题度和AI算力投资加码或许能侧面回答这一担忧。根据《商业内幕》报道,目前,某些企业客户已被授予GPT5演示版本的早期访问权限。另外,OpenAI首席技术官Mira Murati近日透露,公司正在开发的GPT5有望在2025年底或2026年初推出,在特定任务中达到博士级智能水平。而根据The Information 报道,OpenAI 正在开发新旗舰大语言模型,代号“猎户座”,该模型训练数据由OpenAI另一即将发布的AI模型“草莓”生成,目前,OpenAI已向安全监管人员展示了“草莓”模型,我们认为在尚未出现爆款的背景下,GPT本身就是“爆款”,建议关注GPT5的发布进展。
建议关注:
算力——
光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技(维权)、剑桥科技、铭普光磁(维权)。铜链接:沃尔核材、精达股份。算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。液冷:英维克、申菱环境、高澜股份。边缘算力承载平台:美格智能、广和通、移远通信。卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。
数据要素——
运营商:中国电信、中国移动、中国联通。数据可视化:浩瀚深度、恒为科技、中新赛克。
风险提示:AI发展不及预期,算力需求不及预期,市场竞争风险。
1.投资策略:市场对AI算力担心什么
本周建议关注:
算力——
光通信:中际旭创、新易盛、天孚通信、太辰光、腾景科技、光库科技、光迅科技、德科立、联特科技、华工科技、源杰科技、剑桥科技、铭普光磁。
铜链接:沃尔核材、精达股份。
算力设备:中兴通讯、紫光股份、锐捷网络、盛科通信、菲菱科思、工业富联、沪电股份、寒武纪。
液冷:英维克、申菱环境、高澜股份。
边缘算力承载平台:美格智能、广和通、移远通信。
卫星通信:中国卫通、中国卫星、震有科技、华力创通、电科芯片、海格通信。
数据要素——
运营商:中国电信、中国移动、中国联通。
数据可视化:浩瀚深度、恒为科技、中新赛克。
本周观点变化:
本周科创成长板块以波动为主,英伟达财报后股价下跌较多,市场对AI算力发展的隐忧主要集中在资本开支和回本周期。分析英伟达盘后大跌的原因,本质上是分析市场对AI算力后续发展的担忧,我们认为可以归纳总结为对AI算力行业的三大担忧。第一,市场担忧CSP、科技龙头的巨额Capex是否可持续,云厂商和大型科技公司的资本支出决定了英伟达的营收增速和AI算力的发展速度。科技巨头资本支出的可持续性成为市场焦点,区别整体Capex和算力侧Capex,后者可持续性支撑力强劲;第二,四大云厂商对算力侧的巨额资本开支也引发市场对于AI芯片投资回报率的担忧,我们认为,现阶段重点不在“性价比”而在于卡位优势和军备竞赛,对于AI投资不足的风险远远大于过度投资的风险;第三,面对巨额基础投资设施的增长,下游需求增速会因为没有“AI爆款”而无法匹配,而本质上市场对于爆款的担忧,是在关注大语言模型的热度是否能持续支撑供给侧的高投入,而GPT接连升级后引发的话题度和AI算力投资加码或许能侧面回答这一担忧。基于此,我们仍长期看好以AI算力为主的方向。
2.行情回顾:通信板块上涨,云计算表现相对最优
本周(2024年8月26日-2024年8月31日)上证综指收于2842.21点。各行情指标从好到坏依次为:中小板综>创业板综>万得全A(除金融,石油石化)>万得全A>沪深300>上证综指。通信板块上涨,表现优于上证综指。
从细分行业指数看,云计算、移动互联、量子通信、区块链、通信设备分别上涨4.3%、3.9%、2.1%、2.0%、1.9%,表现优于通信行业平均水平;物联网上涨1.1%,表现与通信行业平均水平齐平,卫星通信导航上涨0.4%,表现劣于通信行业平均水平,运营商、光通信分别下跌0.7%、4.3%。
本周,受益ChatGpt概念,ST高鸿(维权)上涨27.59%,领涨版块。受益RSC概念,天利科技上涨27.18%;受益传感器概念,亿通科技上涨19.81%;受益AI眼镜、存储芯片概念,英唐智控上涨16.67%;受益边缘计算、华为概念,宜通世纪(维权)上涨14.32%。
3.周专题:市场对AI算力担心什么
英伟达财报后股价下跌较多,市场对AI算力发展的隐忧主要集中在资本开支和回本周期。本周英伟达发布2025财年第二季度财报,营收达到300亿美元,超过上季度指引280亿美元,同比增长122%,净利润达到166亿美元,同比增长168%,并指引下季度应收325亿美元(上下浮动2%)。发布财报后,公司股价跳水,盘后一度跌超8%,以科技股为主的纳指也同步下跌。
作为全球算力龙头第一股,分析英伟达盘后大跌的原因,本质上是分析市场对AI算力后续发展的担忧,我们认为,无论是对B系列推迟、GB芯片良率、公司盈利能力的担忧,都可以被归纳总结为对AI算力行业的三大担忧:
【担忧1:CSP、科技龙头的巨额Capex是否可持续】
云厂商和大型科技公司的资本支出决定了英伟达的营收增速和AI算力的发展速度。英伟达在电话会中披露,CSP厂商(微软、亚马逊、谷歌等)约占数据中心收入的45%,互联网、消费级科技公司(Meta、特斯拉等)占数据中心收入超过50%,而数据中心在英伟达整体营收中贡献比例超87%,因此科技公司的资本支出直接影响英伟达和AI算力发展速度。
我们认为,科技巨头资本支出的可持续性成为市场关注焦点,区别整体capex和算力侧capex,后者可持续性支撑力强劲。美国四大CSP(微软、亚马逊、谷歌、Meta)2024年二季度资本支出总额达到529亿美元,同比增加56%,增速达到近几年的顶峰水位,市场对于高增速的可持续性担忧较高。我们认为,对于资本开支可持续性的担忧应该区分整体capex和算力侧capex,根据Dell’Oro Group,预期2027年AI 基础设施支出将推动数据中心资本支出超5000亿美元,而主要科技公司也多次强调对AI的资本支持:亚马逊24Q2资本开支176亿美元,公司指引,鉴于来自AWS客户的需求强劲增长(其中大多包含生成式AI组件),下半年公司资本支出将持续增加,且capex大部分是用于支持技术基础设施建设;Meta上调资本开支指引,大量投资基础设置以提供算力支持;Alphabet (谷歌母公司)预期2024 年支出将显著增加,将继续投资服务器、数据中心等基础设施;微软资本开支指引增加,并明确指出,资本开支全部由云产品和算力投资构成。
【担忧2:高额AI芯片的投资回报率】
四大云厂商对算力侧的巨额资本开支,也引发市场对于AI芯片投资回报率的担忧。微软资本开支在2024全年预计将突破500亿美元,谷歌和亚马逊预计也会达到500亿美元/年的水准,Meta预计会在2024年投资400亿美元,巨额投资引发市场对AI芯片“性价比”的讨论,投资回报率成为核心议题。微软是较早在财报中量化给出AI业务回报情况的公司,Azure云一季度增长31%,微软提到其中7个百分点是AI服务贡献。
我们认为,现阶段重点不在“性价比”而在于卡位优势和军备竞赛,投资不足的风险远大于过度投资。从长远来看,AI算力侧投资的战略意义远超单纯的性价比考量,一方面,在快速发展的AI领域,技术领先意味着能够提供更先进的服务,吸引更多的客户,从而在市场上占据主导地位,因此即使初期AI芯片投资是所谓的“低性价比”,但为了在算力军备竞赛中保持技术领先,巨额capex必不可少;另一方面,高性能的AI服务能够吸引并锁定高端客户(对服务质量和稳定性有更高要求),一旦客户依赖于某个云服务商的AI服务,不太可能轻易转换到其他竞争对手,因此卡位优势及其关键,AI芯片的早期投资是卡位的主要基础。正如谷歌在24Q2财报会议中指出,对于AI投资不足的风险远远大于过度投资的风险。
【担忧3:下游爆款何时出现】
对于下游应用的担忧是AI发展之初就存在的“老生常谈”的问题,市场主要担心的是,面对巨额基础设施投资的增长,下游需求增速会因为没有“AI爆款应用”而无法匹配。
AI应用增长缓慢背后的原因较为复杂,一方面是AI大模型使用门槛高,另一方面通用AI与专业领域需求也存在较大不匹配性,此外高成本和慢响应速度影响用户体验和商业化,各种原因下的结果就是在GPT4面世近一年后,全球AI爆款尚未诞生。
我们认为,应用层的爆款难以提前预测,但本质上市场对于爆款的担忧,是在关注大语言模型的热度是否能持续支撑供给侧的高投入,而GPT3.5-GPT4-GPT4.5升级后引发的话题度和AI算力投资加码或许能侧面回答这一担忧。根据《商业内幕》报道,目前,某些企业客户已被授予GPT5演示版本的早期访问权限。另外,OpenAI首席技术官Mira Murati近日透露,公司正在开发的GPT5有望在2025年底或2026年初推出,在特定任务中达到博士级智能水平。而根据The Information 报道,OpenAI 正在开发新旗舰大语言模型,代号“猎户座”,该模型训练数据由OpenAI另一即将发布的AI模型“草莓”生成,目前,OpenAI已向安全监管人员展示了“草莓”模型,我们认为在尚未出现爆款的背景下,GPT本身就是“爆款”,建议关注GPT5的发布进展。
4. Gartner发布2024年新兴技术成熟度曲线:重点关注开发者生产力、全面体验、AI和安全
据C114报道,Gartner 2024年新兴技术成熟度曲线收录的25项颠覆性技术分为四大领域:自主AI、开发者生产力、全面体验以及以人为本的安全和隐私计划。
Gartner杰出研究副总裁Arun Chandrasekaran表示:“随着企业的关注重点继续从基础模型转向可提高投资回报率的用例,生成式人工智能(GenAI)即将越过期望膨胀期。这一趋势正在加速自主AI的发展。虽然目前的AI模型缺乏自主行动能力,但各AI研究实验室正在快速推出智能体,借助智能体与环境之间的动态交互来实现目标,不过这将是一个循序渐进的过程。”
Chandrasekaran表示:“即便AI依然具有吸引力,首席信息官(CIO)和其他IT高管也必须探究可能对开发者、企业安全、客户和员工体验产生变革影响的其他新兴技术,并根据企业机构对于未经验证技术的接纳能力,制定利用这些技术的战略。”
在Gartner的众多技术成熟度曲线中,新兴技术成熟度曲线较为独特,每年会从Gartner研究的2000多项技术和应用框架中精选出企业机构有必要了解和掌握的新兴技术。这些技术和趋势有望在未来二至十年内为企业机构带来巨大的竞争优势。
5.爱立信AI解决方案助力M1 5G网络性能提升
据C114报道,近日,M1与爱立信联合部署了全球首个集成先进人工智能(AI)与机器学习(ML)功能的IP与微波混合现网。
新加坡领先的移动网络运营商之一M1与爱立信签署谅解备忘录,双方将使用由AI赋能的爱立信传输网自动化控制器(Ericsson Transport Automation Controller)提高M1的IP与微波网络的容量与性能。这标志着全球首个支持先进AI与ML功能的IP与微波组合网络的现网部署。
作为谅解备忘录的一部分,M1将使用爱立信传输网自动化控制器在其网络上对IP与微波用例进行概念验证。这是M1为增强自身的5G能力并满足对高性能5G独立组网(SA)日益增长需求所做努力的一部分,旨在为用户带来更高的带宽、更低的时延和更具弹性的底层传输网连接。
M1使用爱立信Router 6000以及光纤+MINI-LINK微波连接的组合,构建了一个能够支持全国5G独立组网的多种技术结合的传输网络。
为了更好、更快地深入了解其5G网络性能,实现更快的连接和更低的延迟,M1选择使用爱立信传输网自动化控制器,并计划在2024年第四季度之前对IP与微波进行概念验证。M1与爱立信将以此为契机,在传输网中加入网络性能实时观测能力和SDN自动化功能。
爱立信传输网自动化控制器是一款智能云原生传输网控制器,它利用AI和ML对微波、IP和光纤网络进行分析及自动化操作。该控制器支持数据驱动型决策,确保运营商能够提前应对可能影响网络状态和性能的挑战,并通过精确的数据分析帮助电信运营商了解某些问题发生的原因以及网络中出现的趋势和性能异常,从而采取预防性维护等主动网络控制措施。这款AI驱动的传输网控制器可实时识别性能下降、容量利用率和网络时钟同步问题,并提供如何优化整体网络性能的洞察,同时减少了人为错误和故障排除的时间。
M1首席技术官Denis Seek表示:“M1致力于通过在网络中部署最新的技术为用户提供更多价值,我们将继续引入先进的自动化功能和AI技术实现4G和5G移动传输网的现代化。借助爱立信传输网自动化控制器,我们的目标是提供更高质量的网络性能,并通过先进的5G独立组网用例搭建起一个能够满足更多用户需求的网络。此次深化合作也帮助M1朝着实现全公司的自动化和AI目标又迈进了一步。”爱立信新加坡、菲律宾和文莱地区负责人Daniel Ode表示:“爱立信十分高兴能够深化与M1的合作,并为他们提供我们的智能传输网自动化控制器。这款控制器不仅可以对IP与微波网络进行实时洞察,同时通过使用先进的AI技术帮助M1充分挖掘其5G独立组网的潜力。”
6.IDC调高2024全年手机交付预测:同比增长5.8%至12.3亿部,AI手机将占18%份额
据C114报道,调研机构IDC鉴于上半年全球手机市场交付情况良好,于8 月27日宣布调高全年手机交付预测,最新估计同比增幅为5.8%,交付量预估达12.3亿部;原先预估为12.1亿部,同比增幅为 4%。
IDC全球季度手机追踪报告高级研究总监Nabila Popal 表示:“在中国和新兴市场 Android设备强劲增长的推动下,2024 年预测的改善巩固了智能手机市场的复苏之路。”
Popal 还称“今年 Android 的增长将达到 7.1%,比iOS的 0.8% 快九倍。苹果增长放缓的原因是中国市场竞争加剧。IDC 预计iOS的发展轨迹将在 2025 年改善,同比增长 4%。”
IDC 全球季度手机追踪研究总监Anthony Scarsella 则指出,人工智能(AI)热潮带动了手机销售,原因是大型手机制造商在新型号加入生成式 AI工具,刺激包括中国和美国在内的主要经济体消费者换机热情升温。
从报告中获悉,IDC预计到2024年底,生成式AI智能手机将实现 344% 的强劲增长,占据整个市场 18% 的份额,因为大多数旗舰机都将采用端侧AI功能。不过,支持生成式AI的设备最初不会便宜,平均售价将是不支持AI设备的两倍以上,进一步推动高端化趋势。
7. Cerebras推出全球最快AI推理解决方案,速度是英伟达方案的20倍
据C114报道,Cerebras Systems 今日宣布推出 Cerebras Inference,官方称这是全球最快的 AI 推理解决方案。该新解决方案为 Llama 3.1 8B 提供每秒 1800 个 token,为 Llama 3.1 70B 提供每秒 450 个 token,速度是微软 Azure 等超大规模云中提供的基于英伟达 GPU 的 AI 推理解决方案的 20 倍。
除了令人难以置信的性能之外,这款新型推理解决方案的定价也比流行的 GPU 云低得多,起价仅为每百万个 token 10 美分,从而为 AI 工作负载提供 100 倍更高的性价比。
该方案将允许 AI 应用程序开发人员构建下一代 AI 应用程序,而不会影响速度或成本。该方案使用了 Cerebras CS-3 系统及其 Wafer Scale Engine 3(WSE-3)AI 处理器,其中 CS-3 的内存带宽是 Nvidia H100 的 7000 倍,解决了生成式 AI 的内存带宽技术挑战。
Cerebras Inference 提供以下三个层级:免费层为登录的任何人提供免费的 API 访问和慷慨的使用限制。开发者层专为灵活的无服务器部署而设计,为用户提供一个 API 端点,其成本只是市场上替代方案的一小部分,Llama 3.1 8B 和 70B 模型的定价分别为每百万 token 10 美分和 60 美分。企业层提供微调模型、定制服务级别协议和专门支持。企业可以通过 Cerebras 管理的私有云或客户场所访问 Cerebras Inference,非常适合持续的工作负载。
Cerebras 团队称:“凭借创纪录的性能、业界领先的定价和开放的 API 访问,Cerebras Inference 为开放的 LLM 开发和部署设定了新标准。作为唯一能够同时提供高速训练和推理的解决方案,Cerebras 为 AI 开辟了全新的可能性。”
AI 领域正在迅速发展,虽然英伟达目前在 AI 市场占据主导地位,但 Cerebras 和 Groq 等公司的出现预示着行业动态可能发生变化。随着对更快、更具成本效益的 AI 推理解决方案需求的不断增加,这些挑战者在颠覆英伟达的霸主地位,尤其是在推理领域方面。
8. 马斯克展示特斯拉超级计算机Cortex:可容纳10万张H100/H200
据C114报道,特斯拉CEO马斯克今日展示了特斯拉新的超级计算机“Cortex”,该计算机群有望成为全球最大的超级计算机之一,但目前尚未完全准备就绪。
马斯克曾表示,这个项目对特斯拉至关重要,近年来,他将特斯拉的重点转向了人工智能,人工智能需要强大的计算能力。
马斯克此前透露,今年特斯拉将投入100亿美元用于人工智能的训练和推理,其中仅用于采购英伟达芯片的预算就高达30至40亿美元,也证明了这些芯片价格并不便宜。
而Cortex由10万块H100和H200芯片组成,其算力规模已远超世界最强超算Frontier。
马斯克不久前还公布了Cortex包括冷却等带来的超算耗电量为130MW,差不多是2个半中型发电站的发电量,后续,耗电量会增长到超500MW。
此外,马斯克在高端算力集群上的巨额投入,也加大了国内自动驾驶厂商与特斯拉的差距。
9.Omdia聚焦全球电信AI联盟发展:Telco-LLM开发势在必行
据C114报道,市场研究公司Omdia的最新报告对全球电信AI联盟(Global Telco AI Alliance,GTAA)在电信领域的大语言模型(LLM)开发情况以及SK电讯(SK Telecom)为该联盟的合资企业所做贡献的合作协议进行了分析。
多语言Telco-LLM优化各种电信业务表现,同时保留了内部人才。联盟成员同意成立一家合资企业,开发专门针对电信行业的大语言模型,这是对利用海量电信数据的一次主动尝试,以后可以对这些数据进行定制,为不同的业务领域打造更多的大语言模型。
现有大语言模型的局限性引发了打造“电信-大语言模型”(Telco-LLM)的想法,这是一种先进的大语言模型,可以为AI服务配备电信行业知识,以了解用户的意图。Telco-LLM将推动AI转型并提高客户服务质量标准,同时还具有提升生成式AI表现的潜力:
各种本地化语言:随着越来越多的国际移动运营商加入该联盟,支持的语言列表将会不断扩大。Telco-LLM为更个性化的客户体验奠定了基础(例如,基于文化差异的服务推荐)。
针对业务板块的定制大语言模型:数字助理/聊天机器人可以准确地解释不同业务板块的特定电信问题。有针对性的培训确保大语言模型理解电信语言,并应对与法规、资费、安装和故障排除相关的技术问题查询。
Omdia资深分析师Harith Abdul Hadi指出,在生成式AI当中打造Telco-LLM的目的是简化员工的工作流程,更重要的是,支撑运营商在各个领域(例如咨询、研发和营销)的AI转型计划,包括将运营商的新业务与核心业务相结合。电信公司将能够留住人才并使工作变得更有趣,特别是在需求下降的领域(例如客户服务、后端运营)。
K-AI联盟的AI初创企业和SK电讯最近的收购交易为GTAA的AI发展提供动力当SK电讯在2023年2月成立“K-AI联盟”(K-AI Alliance)时,最初的计划是开发AI聊天机器人,从而使该运营商更容易转向开发将非电信业务与电信产品连接起来的“super app”。在GTAA成立之前,K-AI联盟的成立是为了启动SK电讯的AI发展计划。
为了支持其AI金字塔战略计划,SK电讯通过在联盟下招募16家韩国AI初创公司,培养了本土人才。这些都是促进基于电信的AI生态系统发展的积极因素,因此当GTAA成员加入时,他们已经处于成为全球AI领导者的有利地位。尽管如此,合资企业仍需获得常规监管部门的批准,并且需要创始方提供同等投资以支持其开发Telco-LLM的初始营运资金需求。
10.Omdia:2029年AI数据中心芯片市场将达1510亿美元,2026年后增长放缓
据C114报道,研究咨询机构 Omdia 在当地时间本月 1 日发布的文章中表示,AI 数据中心芯片市场需求规模将在 2029 年达到 1510 亿美元(IT之家备注:当前约 1.08 万亿元人民币),不过 2026 年后增长将大幅放缓。
根据 Omdia 的《云计算和数据中心人工智能处理器预测》报告,AI 数据中心芯片市场规模在 2022 年仅有不到 100 亿美元,现已成长到了今年的 780 亿美元(当前约 5562.87 亿元人民币),并将持续提升。
不过 2026 年可能会出现一个明显的拐点,推动增长的动力将从技术采用转向 AI 应用需求的变化。Omdia 高级计算首席分析师 Alexander Harrowell 说:重要的变化是,在 AI 增长的推动下,基础数据中心半导体市场出现了上调。除此之外,我们注意到超大规模企业的定制芯片,尤其是谷歌的 TPU,开始从 GPU 手中抢夺市场份额。我们预计它们将越来越重要。自 2021 年 1 月以来,最大的 AI 模型的尺寸并没有前进,创新的重点已经转移到更多种类的小型模型上。还有迹象表明,类似规模的模型一代比一代更有效率。这对 AI 基础设施的投资是一个不利因素,尽管它也允许更多的组织参与进来,这往往会在广度上弥补深度上的损失。随着时间的推移,推理将变得更加重要。我们预计,不断增长的用户群和应用程序将需要更多的推理基础设施。
11.OpenAI正以超千亿美元估值洽谈新一轮融资
据C114报道,彭博社的一份新报告讲述了苹果两款即将推出的头显设备:第二代Apple Vision Pro型号,以及更便宜的耳机版本,可以简单地称为“Apple Vision”。
这款产品可以理解为简化版Vision Pro头显,将通过减少摄像头和扬声器系统的配置实现设计上的优化和成本控制。
关键的成本削减将来自显示屏组件,苹果计划显著降低其成本,也让廉价版本的Apple Vision的售价能够与高端iPhone相媲美,预计定价在1600美元左右,大约是现行Vision Pro价格的一半。预计这款更经济的头显将在2025年底推出,目的是扩大市场覆盖范围,让更多消费者能够接触并体验苹果的增强现实和虚拟现实技术。
十二、风险提示
AI发展不及预期,算力需求不及预期,市场竞争风险。
VIP课程推荐
APP专享直播
热门推荐
收起24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)