说话就能控制左右快慢!理想汽车MindVLA大模型实测视频发布

说话就能控制左右快慢!理想汽车MindVLA大模型实测视频发布
2025年03月21日 18:05 快科技

快科技3月21日消息,今天下午,理想汽车详细介绍了MindVLA大模型与现有端到端+VLM大模型的区别,并公布了相关实测视频。

按能力表现来看,MindVLA 模型加持下的汽车就像一个助手,能与用户沟通、理解用户意图,帮用户做更多事情。

比如,它可以在陌生车库漫游找车位直至自主完成泊车;

可以按照驾驶员的“开快点、开慢点、左拐、右拐”等语音指令进行行动;

可以在你发给它地标照片后,按图索骥找到你等等。

理想汽车还表示,MindVLA是理想汽车下一代自动驾驶核心架构,使用了MindGPT作为语言基座,demo中的语音通过座舱的ASR后变成文字,输入给 MindVLA。

这一设计继承自 MindGPT 在语言理解与交互领域的优势能力(如语义解析、逻辑推理等),并针对自动驾驶场景进行了专项优化。

这体现了智舱与智驾在功能层的协同创新,而非系统层的完全融合。

未来,我们将持续探索多模态交互与驾驶决策的深度耦合,为用户提供更自然的“人车共驾”体验。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:王略

理想汽车
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片