机器人感知再升级:全球首个跨本体视触觉大模型数据集“白虎-VTouch”正式亮相

在机器人全面迈向“具身智能”的进程中,让冷硬的机体拥有接近人手的灵敏“触觉”,已成为攻克精细操作难题的关键一步。2026年1月26日,国地中心联合纬钛机器人发布了全球首个、且当前规模最大的跨本体视触觉(Vision-Based Tactile Sensor)多模态数据集——白虎-VTouch。这一里程碑式数据集的推出,不仅填补了机器人视触觉交互领域的空白,也为全球研发者提供了一座高价值的数据宝库。

image.png

全球最大规模:60,000分钟的“真实触感”

不同于过往零散、单一的实验数据,白虎-VTouch在规模与完整度上实现了跨越式提升:

数据体量可观:总时长超过60,000分钟,覆盖约9072万对真实物体接触样本。

多模态齐备:融合视触觉传感器数据、RGB-D深度信息以及关节位姿数据,多源信息实现深度对齐。

高分辨高频率:传感器支持640×480分辨率与120Hz刷新,能捕捉接触过程中的细微物理变化。

跨本体范式:从“青龙”到“手持终端”

该数据集的核心亮点在于其**“跨本体”**的数据采集方式。它突破“单一设备”的边界,覆盖多种典型机器人形态:

人形机器人:覆盖以全尺寸人形机器人“青龙”为代表的高复杂动力学平台。

类人形轮式:纳入D-Wheel等轮臂复合结构,具备灵活动态特性。

智能终端:包括手持式pika夹爪等轻量智能端设备。

这种跨本体的数据覆盖,让所训练的算法具备更强的通用迁移能力,帮助不同形态的机器人快速“习得”一致的触觉感知能力。

“矩阵式”任务:让机器人走进烟火气

为让AI更好服务真实世界,白虎-VTouch围绕四类典型实践场景,搭建了系统化的任务矩阵:

家居家政:应对多变的家庭环境互动需求。

餐饮服务:稳定处理易碎与柔性物体的抓取与放置。

工业制造:在精密组装环节实现基于力的细致调整。

特种作业:面向极端与特殊环境中的精密操作。

该任务体系覆盖100余项原子技能与260多个接触密集型任务。研究表明,引入视触觉感知后,68%的任务获得了更完整、连续的接触状态描述,这对失败恢复与精准力控至关重要。

随着白虎-VTouch的研究成果与数据说明陆续开放,全球机器人产业有望迎来一轮“触觉觉醒”。当机器人不仅会“看”,还能通过“触”去理解物理世界的规律,具身智能的未来将真正变得触手可及。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞12 分享