史上最强 AI 基建方案:英伟达发布 Vera Rubin 平台,单 Token 成本降至 1/10

史上最强 AI 基建方案:英伟达发布 Vera Rubin 平台,单 Token 成本降至 1/10
2026年03月17日 03:48 IT之家

专题:英伟达GTC 2026

IT之家 3 月 17 日消息,今天(3 月 17 日)在美国加州圣何塞举行的 2026 年 GTC 大会上,英伟达为推动智能体 AI(Agentic AI)发展,发布 Vera Rubin AI 平台。

英伟达创始人兼首席执行官黄仁勋强调,Vera Rubin 是一次代际飞跃,标志着其史上最大规模基础设施建设的开端,全面覆盖从大规模预训练到实时智能体推理的 AI 全生命周期。

此举标志着英伟达正式跨入传统 CPU 直销赛道,不仅直接与英特尔、AMD 展开正面交锋,更向全球云计算巨头自研的 Arm 架构处理器发起挑战。

IT之家援引博文介绍,为大幅提升基础运算效率,Vera CPU 单颗芯片配备 88 个核心与 144 个线程。该芯片采用英伟达深度定制的 Arm v9.2-A Olympus 核心,其指令级并行度(IPC)实现了惊人的 1.5 倍代际飞跃。

同时,该架构首发引入了“空间多线程”黑科技,通过物理隔离流水线组件,让多个线程真正在单核上同时运行,彻底告别了传统多线程技术资源排队造成的算力损耗。

在核心算力层面,新一代 NVL72 机架实现了效率的突破性提升。该机架通过 NVLink 6 连接 72 块 Rubin GPU 与 36 块 Vera CPU。

与上一代 Blackwell 平台相比,该系统仅需四分之一的 GPU 即可完成混合专家大模型(MoE)训练,同时每瓦推理吞吐量提升高达 10 倍,单 Token 成本降至十分之一。

此外,专为验证 AI 模型结果设计的 Vera CPU 机架集成了 256 块液冷 CPU,其运行效率达到传统 CPU 的两倍,速度提升 50%。

为应对智能体系统低延迟和长上下文的需求,英伟达推出了 Groq 3 LPX 推理加速机架。该系统包含 256 个 LPU 处理器,与 Vera Rubin 结合后,每兆瓦推理吞吐量飙升至最高 35 倍。

在数据存储方面,全新 BlueField-4 STX 机架构建了 AI 原生存储基础架构。借助全新的 DOCA Memos 框架,该系统能够高效处理大型语言模型生成的海量键值(KV)缓存数据,在大幅降低能耗的同时,将推理吞吐量提升最高 5 倍,从而实现更快速的 AI 多轮交互。

英伟达 GTC 2026 大会专题英伟达 GTC 2026 大会专题
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片