高通发布AI200和AI250芯片:重新定义AI机架 明年起商用

高通发布AI200和AI250芯片:重新定义AI机架 明年起商用
2025年10月28日 20:41 快科技

快科技10月28日消息,高通今日宣布,推出面向数据中心的下一代AI推理优化解决方案:基于Qualcomm AI200与AI250芯片的加速卡及机架系统。

两款解决方案以业界先进的总体拥有成本(TCO),为高速数据中心生成式AI推理提供机架级(rack-scale)性能与卓越内存容量。

其中,Qualcomm AI200带来专为机架级AI推理打造的解决方案,为大语言模型(LLM)与多模态模型(LMM)推理及其他AI工作负载提供低总体拥有成本与优化性能。

每张加速卡支持768GB LPDDR内存,实现更高内存容量与更低成本,为AI推理提供卓越的扩展性与灵活性。

而Qualcomm AI250解决方案将首发基于近存计算(Near-Memory Computing)的创新内存架构,实现超过10倍的有效内存带宽提升并显著降低功耗,为AI推理工作负载带来能效与性能的跨越性提升。

该架构支持解耦式AI推理,实现硬件资源的高效利用,同时满足客户性能与成本需求。

两款机架解决方案均支持直接液冷散热,以提升散热效率,支持PCIe纵向扩展与以太网横向扩展,并具备机密计算,保障AI工作负载的安全性,整机架功耗为160千瓦。

根据高通规划,Qualcomm AI200与AI250预计将分别于2026年和2027年实现商用。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:随心

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片