在机器人全面迈向“具身智能”的进程中,让冷硬的机体拥有接近人手的灵敏“触觉”,已成为攻克精细操作难题的关键一步。2026年1月26日,国地中心联合纬钛机器人发布了全球首个、且当前规模最大的跨本体视触觉(Vision-Based Tactile Sensor)多模态数据集——白虎-VTouch。这一里程碑式数据集的推出,不仅填补了机器人视触觉交互领域的空白,也为全球研发者提供了一座高价值的数据宝库。

全球最大规模:60,000分钟的“真实触感”
不同于过往零散、单一的实验数据,白虎-VTouch在规模与完整度上实现了跨越式提升:
数据体量可观:总时长超过60,000分钟,覆盖约9072万对真实物体接触样本。
多模态齐备:融合视触觉传感器数据、RGB-D深度信息以及关节位姿数据,多源信息实现深度对齐。
高分辨高频率:传感器支持640×480分辨率与120Hz刷新,能捕捉接触过程中的细微物理变化。
跨本体范式:从“青龙”到“手持终端”
该数据集的核心亮点在于其**“跨本体”**的数据采集方式。它突破“单一设备”的边界,覆盖多种典型机器人形态:
人形机器人:覆盖以全尺寸人形机器人“青龙”为代表的高复杂动力学平台。
类人形轮式:纳入D-Wheel等轮臂复合结构,具备灵活动态特性。
智能终端:包括手持式pika夹爪等轻量智能端设备。
这种跨本体的数据覆盖,让所训练的算法具备更强的通用迁移能力,帮助不同形态的机器人快速“习得”一致的触觉感知能力。
“矩阵式”任务:让机器人走进烟火气
为让AI更好服务真实世界,白虎-VTouch围绕四类典型实践场景,搭建了系统化的任务矩阵:
家居家政:应对多变的家庭环境互动需求。
餐饮服务:稳定处理易碎与柔性物体的抓取与放置。
工业制造:在精密组装环节实现基于力的细致调整。
特种作业:面向极端与特殊环境中的精密操作。
该任务体系覆盖100余项原子技能与260多个接触密集型任务。研究表明,引入视触觉感知后,68%的任务获得了更完整、连续的接触状态描述,这对失败恢复与精准力控至关重要。
随着白虎-VTouch的研究成果与数据说明陆续开放,全球机器人产业有望迎来一轮“触觉觉醒”。当机器人不仅会“看”,还能通过“触”去理解物理世界的规律,具身智能的未来将真正变得触手可及。



















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?