Akamai基于NVIDIA技术重新定义分布式AI,全球发布Inference Cloud

Akamai基于NVIDIA技术重新定义分布式AI,全球发布Inference Cloud
2025年10月29日 16:54 TechWeb

【TechWeb】10月29日消息,负责支持和保护网络生活的云服务提供商阿卡迈技术公司(以下简称:Akamai)宣布推出Akamai Inference Cloud,该平台通过将推理从核心数据中心扩展到互联网边缘,重新定义了应用 AI 的场景与方式。

Akamai Inference Cloud 能够在靠近用户和设备的边缘实现智能化的智能体 AI 推理。与传统系统不同,该平台是专为在全球范围内提供低延迟、实时边缘 AI 处理而打造的。此次推出的 Akamai Inference Cloud 依托 Akamai 在全球分布式架构方面的专业能力以及 NVIDIA Blackwell AI 基础架构,对释放 AI 真正潜力所需的加速计算进行了颠覆性的重构与扩展。

从个性化数字体验、智能体到实时决策系统,下一代的 AI 应用程序迫切要求将 AI 推理部署在更靠近用户的位置,从而在用户的交互点实现即时互动,并就请求的路由路径做出智能决策。智能体工作负载日益需要低延迟推理、本地环境感知以及即时进行全球扩展的能力。专为推动此变革而打造的 Akamai Inference Cloud 是一个分布式、生成式边缘平台,它可以将 NVIDIA AI 技术栈部署在更靠近数据生成和决策制定的位置。

Akamai Inference Cloud 通过将智能化的智能体 AI 推理扩展到更靠近用户和设备的位置,重新定义了应用 AI 的场景和方式。该平台将 NVIDIA RTX PRO Server(配备 NVIDIA RTX PRO 6000 Blackwell 服务器版 GPU、NVIDIA BlueField-3 DPU 和 NVIDIA AI Enterprise 软件)与 Akamai 的分布式云计算基础架构及在全球拥有超过 4,200 个位置的全球边缘网络相结合。Akamai Inference Cloud 将充分利用 NVIDIA 最新的技术(包括最近发布的 NVIDIA BlueField-4 DPU)来进一步加速和保护从核心到边缘的数据访问及 AI 推理工作负载,以推动 Akamai 实现其打造全球高度可扩展、分布式 AI 性能的愿景。

Akamai首席执行官兼联合创始人Tom Leighton表示:”下一波AI浪潮的发展同样需要靠近用户——这正是互联网能够扩展为今天广泛应用的全球平台的原因。Akamai过去曾成功解决过这一难题,如今我们再次应对这一课题。依托NVIDIA的AI基础设施,Akamai Inference Cloud将通过部署在全球数千个节点的AI决策能力,来满足日益增长的AI推理算力与性能扩展的需求,从而实现更快速、更智能以及更安全的响应。”

NVIDIA创始人兼首席执行官黄仁勋指出:”推理已成为AI中计算最密集的环节——需要在全球范围内进行实时推理。NVIDIA与Akamai共同协作正在将推理能力部署更靠近每一位用户,提供更快速、可扩展性更强的生成式AI服务,释放新一代智能应用的潜力。”(果青)

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片