宣称“从 0 构建”,印度 AI 实验室 Sarvam 发布两款 MoE 架构 LLM

宣称“从 0 构建”,印度 AI 实验室 Sarvam 发布两款 MoE 架构 LLM
2026年02月20日 23:14 IT之家

IT之家 2 月 20 日消息,印度 AI 实验室 Sarvam 当地时间本月 18 日在印度人工智能影响力峰会上发布了 2 款“从 0 构建”的最新一代 MoE 架构大语言模型。这两款模型即将在 Hugging Face 上以开源权重的形式提供,API 访问和仪表盘支持也将随后推出。

Sarvam 两款新模型中的较小型号采用 30B-A1B 设计,预训练数据集规模达 16T,支持 32K 上下文窗口,面向需求低延迟的实时应用场景;规模较大的型号则采用 105B-A9B 设计,支持 128K 上下文窗口,面向要求更为严苛的用例。

Sarvam 宣称其 105B-A9B 模型在本地化的印度语言基准测试中优于谷歌 Gemini 2.5 Flash 等竞争对手。而对于更广泛的工作负载,其“大多数基准测试中优于 DeepSeek R1,许多基准测试中优于谷歌 Gemini Flash”。

印度AI谷歌基准
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片