万亿参数旗舰模型Ling-1T正式发布并开源

万亿参数旗舰模型Ling-1T正式发布并开源
2025年10月09日 20:29 封面新闻

封面新闻记者 张越熙

10月9日,蚂蚁集团发布万亿参数的通用语言模型 Ling-1T。Ling-1T是蚂蚁百灵大模型Ling 2.0 系列的第一款旗舰模型,也是蚂蚁百灵团队迄今为止推出的规模最大、能力最强的非思考大模型。测评显示,在有限输出 Token 条件下,Ling-1T于多项复杂推理基准中取得 SOTA 表现。

以竞赛数学榜单 AIME 25 (American Invitation Math Examination 25)为例,Ling-1T以平均4000+ Token的消耗达到了70.42%的准确率,优于Gemini-2.5-Pro(平均5000+ Token,准确率70.10%)。

据透露,Ling-1T 沿用 Ling 2.0 架构,在 20T+ tokens 高质量、高推理浓度的语料上完成预训练,支持最高 128K 上下文窗口,通过“中训练+后训练”的演进式思维链(Evo-CoT)极大提升模型高效思考和精准推理能力。

除此之外,Ling-1T 全程采用 FP8 混合精度训练(部分技术已开源),是目前已知规模最大的使用 FP8 训练的基座模型。这一设计为训练带来了显著的显存节省、更灵活的并行切分策略和 15%+ 的端到端加速。

在强化学习阶段,百灵团队提出了LPO方法(Linguistics-Unit Policy Optimization,LingPO) ,这是一种以“句子”为粒度的策略优化算法,为万亿参数模型的稳定训练提供了关键支持。这种方法既避免了词元级别的破碎感,也克服了序列级别的笼统性,使得奖励信号与模型行为在语义层面实现了更精准地对齐。

记者了解到,除了Ling-1T这款非思考模型,蚂蚁百灵团队还在训练万亿参数级的深度思考大模型Ring-1T,已在9月30日开源了preview版。

百灵推理
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片