小米机器人突破触觉感知瓶颈:仅凭触觉实现毫米级精细抓取

小米机器人突破触觉感知瓶颈:仅凭触觉实现毫米级精细抓取
2026年02月07日 18:48 IT之家

IT之家 2 月 7 日消息,小米机器人团队近日在具身智能领域取得重要突破,并于 2 月 5 日公布了其最新成果 ——TacRefineNet。

这是一个只依靠触觉、无需视觉、无需物体三维模型,就能实现毫米级位姿微调的通用框架。它的核心特性如下:

这一创新技术有望解决机器人在实际应用中的“最后一公里”难题,为工业自动化带来新的可能性。

在机器人技术快速发展的背景下,触觉感知作为连接智能体与物理世界的关键桥梁,其重要性日益凸显。人类能够轻松完成剥鸡蛋等精细操作,正是依赖于高度发达的触觉系统。让机器人具备类似的触觉感知能力,成为突破当前技术瓶颈的重要方向。

据IT之家所知,TacRefineNet 模型的最大特点是仅依靠触觉信息就能实现毫米级精度的抓取调整,完全不需要视觉辅助或物体的三维模型。

该模型基于高空间分辨率触觉传感器,通过多手指触觉与本体信息的融合,能够将抓取误差控制在毫米级别。在实际测试中,无论是仿真环境还是真实场景,该模型都展现出优异的性能。

值得一提的是,单一模型就能处理汽车工厂中多种工件的精细抓取任务,且不需要针对特定任务进行重新训练,真正实现了开箱即用。

技术团队通过大量仿真与真实机器人测试验证了 TacRefineNet 的性能。测试结果显示,该模型能够将多样化的初始抓取位姿快速调整至目标状态,平均位置误差可缩小至毫米级。

即使在物体位置和姿态频繁变化的情况下,系统仍能通过实时反馈进行精确调整。更令人惊喜的是,模型还展现出对未见过物体的泛化能力,能够处理具有类似几何特征的陌生物体。

这一突破性成果得益于数据、算法与硬件的深度融合。在数据方面,研究团队利用 MuJoCo 物理引擎构建了高保真触觉模拟器,实现了对接触力响应的精确建模。

算法层面,TacRefineNet 采用端到端的多模态学习架构,整合了多指触觉、本体感知与空间动作信息。

硬件方面,研究团队在灵巧手指尖集成了高空间分辨率触觉传感器,触点间距仅为 1.1 毫米,能够捕捉物体表面的微小形变特征。

目前,小米机器人团队已公开相关技术细节和实验视频,更多后续研究成果将陆续发布。

小米机器人
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片