云开发者正加速向Arm架构迁移:构建面向AI时代的未来基础设施

云开发者正加速向Arm架构迁移:构建面向AI时代的未来基础设施
2026年02月04日 20:37 电子产品世界

云开发者正加速采用基于 Arm 架构的平台,凭借其无可比拟的每瓦性能和成本优势,更快落地可扩展并投产的 AI 工作负载。

人工智能 (AI) 正重塑数字格局,开发者也正面临全新挑战:基础设施不仅要具备强大算力,还需兼具可扩展性、成本效益和高能效等特征。当前,亚马逊云科技、谷歌、微软、Oracle Cloud Infrastructure (OCI) 及 NVIDIA 等超大规模云服务提供商与 AI 领军企业,均已基于 Arm 架构打造定制化解决方案,布局 AI 数据中心。

这一趋势正在蓬勃展开。2025 年头部超大规模云服务提供商的新增服务器算力中,有近半数是基于 Arm 架构。Arm Neoverse 平台正在为量产级 AI 工作流、向量搜索引擎、实时机器学习 (ML) 平台及云原生微服务提供算力支撑,同时在成本效益、吞吐量与节能方面实现可量化的显著提升。随着 AI 工作负载持续扩展,基础设施的选择愈发关键。

AI工作负载贯穿端到端,Arm赋能全流程优化

AI 的应用早已不再局限于推理或模型训练环节。从数据预处理、模型编排,到实时服务与内存管理,如今的 AI 技术栈已覆盖整个计算工作流。这也带来了延迟、成本、功耗及扩展性方面的全新系统级挑战,而这些早已超出了传统通用 CPU 的设计初衷与能力范围。

Arm 在这场变革中扮演核心角色——其价值不仅限于 CPU 层面,更贯穿整个 AI 系统架构。

在亚马逊云科技, Arm Neoverse 核心为 Graviton 通用计算平台、Nitro 数据处理单元 (DPU) 提供算力支撑,并作为 AI 加速器的头节点 (head node),为 AI 工作流打造高度集成、能效出众的基础设施。

NVIDIA 亦采用类似架构设计:Arm 架构是 Grace 与 Vera CPU 的技术基石,二者均作为 AI 系统的头节点部署;同时 Arm 还为 BlueField DPU 提供算力支撑,助力数据迁移与卸载处理,为 AI 数据中心设计打造一体化的平台解决方案。

凭借卓越的每瓦性能、强大的内存带宽,以及在 Amazon Graviton、Google Cloud Axion、Microsoft Azure Cobalt、NVIDIA Grace 等平台上的规模化部署,基于 Arm 架构的基础设施正日益成为可扩展、高性价比 AI 工作负载的优选方案。

Arm正成为云计算的新标准

云计算领域正经历一场战略性转变:全球领先的云服务提供商均在加码基于 Arm 架构的基础设施建设,将其作为融合型 AI 数据中心规模化部署的默认路径。这并非试点探索,而是着眼于长期的架构战略。

在软件层面,Atlassian、Spotify 和 优步 (Uber) 等企业,已开始借助通用工具与社区文档,将核心工作负载迁移至基于 Arm 架构的云基础设施,且无需对底层平台进行深度重构。Atlassian 表示,在将核心服务迁移至 Arm 实例后,计算成本显著降低,CI/CD 工作流运行速度也得到提升;Spotify 在后端工作负载中试用 Graviton 平台后,实现了显著的基础设施效率提升;Uber 则通过基于 Arm 架构的基础设施,在优化微服务性能的同时,降低了单实例的运营成本。

与此同时,Arm 提供的一系列工具正加速这一迁移进程。例如 Arm MCP(模型上下文协议)服务器以及集成于 GitHub Copilot 的 Arm 云迁移智能体 (Cloud Migration Agent),正帮助开发者评估工作负载兼容性、加快云迁移进程,并实现稳定可靠的规模化部署。目前,专为各类 Arm 云平台量身打造的 Arm MCP 服务器已面向所有软件开发者开放,它可将云迁移工具与专业经验直接融入开发者常用的 AI 助手中,从而赋能自主化的智能体工作流。

通过自动化最佳实践、加速开发流程并提供实时指导,该工具显著简化了迁移路径,让开发团队从项目首日起,即可更轻松地获得成本、能效与性能优势。早期用户的反馈也验证了其在真实迁移场景中具备高度实用性。

开发者转向Arm架构的五大案例

除上述全球软件企业外,其他科技公司在日常运营中采用基于 Arm 架构的云基础设施时,也收获了类似效益。

●   借助 Graviton3,LLM 推理成本降低 35%

Vociply AI 是一家专注于大规模部署大语言模型 (LLM) 的 AI 初创企业,在切换至 Amazon Graviton3 后,其月度基础设施成本从 2000 美元降至 1300 美元,同时性能实现同步提升,具体包括:

●   性价比提升 40%

●   词元 (token) 吞吐量提升 15.6%

●   功耗降低 23%

这一成果得益于 Arm Neoverse 核心、Neon™ 指令集深度优化,以及 llama.cpp 等量化推理引擎的支持。

●   生成式 AI 工作流提速,基础设施成本降低 40%

生成式 IT 及 AI 解决方案平台 Esankethik 将其完整技术栈——涵盖预处理、训练与推理环节,全面迁移至基于 Arm 架构的 Graviton 实例,取得了显著成效,具体包括:

●   推理业务延迟降低 25%

●   每百万次请求的 Lambda 成本降低 40%

●   内存效率提升 15%

通过在 Arm 平台上统一运行预处理、训练与推理任务,Esankethik 有效缓解了性能瓶颈,并显著提升了系统可扩展性。

●   SiteMana 实现实时 ML 的稳定规模化

获客技术公司 SiteMana 已将其实时 ML 推理与数据摄取任务迁移至 Graviton3 平台,并取得了显著成效:

  • 月度成本降低约 25%

  • P95 延迟降低约 15%

  • 网络带宽提升 2.5 倍

此次迁移有效解决了 CPU 降频问题,并实现了峰值负载下的系统性能稳定。

●   AuthZed提升开发者工作流效率

AuthZed 作为基础设施服务授权平台,已将其从开发笔记本到云端的所有工作负载统一迁移至 Arm 架构,由此实现了:

●   本地构建速度提升 40%

●   生产环境 CPU 利用率提升 20%–25%

●   计算成本降低约 20%

该方案在不改变开发者既有工作习惯的前提下,实现了工作流程的大幅精简优化。

●   Zilliz Cloud提升AI搜索吞吐量

面向生产级 AI 应用的全托管向量数据库平台 Zilliz Cloud,将其向量搜索引擎迁移至 Graviton3 后,实现了以下优化成果:

●   索引构建性能提升 50%

●   十亿级查询场景下,向量搜索速度提升 20%

●   单查询成本降低,吞吐量提升

该成果适用于语义搜索、检索增强生成 (RAG) 及多模态 AI 任务。

为AI云时代而生

Arm Neoverse 专为现代工作负载打造——涵盖 LLM、向量搜索、实时 ML、数据分析及高密度微服务等场景。与 x86 相比,基于 Arm 的实例具备以下优势:

●   更卓越的性价比优势

●   更出色的AI与云原生工作负载性能

●   成熟的软件生态与完善的开发者工具链

●   通过Arm KleidiAI为AI框架提供优化支持,实现无缝性能调优与集成

Arm 提供涵盖开发者资源、性能调优指南与云迁移清单在内的完整套件,显著简化 AI 与云工作负载的迁移流程。这些资源可降低迁移阻力,支持性能调优,且无需对平台进行全面重构。

开发者可通过 Arm 云迁移计划获取迁移资源、技术指南及专家咨询服务。

此外,Arm MCP Server 现已向所有开发者开放,可帮助识别并高效执行从 x86 到 Arm 架构的迁移。

AI 时代的基础设施平台

基于 Arm 的云基础设施正快速成为 AI 计算战略的基石。

随着工作负载持续扩展,能效的重要性日益凸显,基础设施需以更少资源提供更多价值。Arm 为打造下一代 AI 系统的开发者,提供了切实可行的实践路径。

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片