小米具身大模型 MiMo-Embodied 发布并全面开源,业界首个打通自动驾驶与具身智能

小米具身大模型 MiMo-Embodied 发布并全面开源,业界首个打通自动驾驶与具身智能
2025年11月21日 18:13 IT之家

IT之家 11 月 21 日消息,小米集团今日官宣,具身大模型 MiMo-Embodied 正式发布并全面开源。

小米集团介绍称,随着具身智能逐步落地家居场景、自动驾驶技术迈向规模化应用,行业内一个关键问题日益凸显:机器人与车辆如何更好地实现认知与能力互通?室内作业智能与室外驾驶智能能否实现相互促进?为此,小米推出具身大模型「MiMo-Embodied」。

MiMo-Embodied 宣称是业界首个成功打通自动驾驶与具身智能的跨域具身基座模型,它实现了两大领域任务的统一建模,标志着通用具身智能研究从“垂直领域专用”向“跨域能力协同”迈出关键一步。

三大核心技术亮点

  • 1. 跨域能力覆盖:同步支持具身智能三大核心任务(可供性推理、任务规划、空间理解)与自动驾驶三大关键任务(环境感知、状态预测、驾驶规划),形成全场景智能支撑;

  • 2. 双向协同赋能:验证了室内交互能力与道路决策能力的知识转移协同效应,为跨场景智能融合提供了新的思路;

  • 3. 全链优化可靠:采用“具身 / 自驾能力学习 → CoT 推理增强 → RL 精细强化”多阶段训练策略,有效提升模型在真实环境中的部署可靠性。

小米表示,在涵盖感知、决策与规划的 29 项核心基准测试(Benchmarks)中,MiMo-Embodied 确立了开源基座模型的性能新标杆,全面优于现有的开源、闭源及专用模型

  • 具身智能领域:在 17 个 Benchmarks 上取得 SOTA 成绩,重新定义了任务规划、可供性预测及空间理解的能力边界;

  • 自动驾驶领域:在 12 个 Benchmarks 上表现卓越,实现了环境感知、状态预测与驾驶规划的全链路性能突破。

  • 通用视觉语言领域:在夯实通用感知与理解能力的同时,进一步在多项关键基准上实现了显著的性能跃升,展现了卓越的泛化性。

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片