随着机器人迈向“具身智能”的全面升级,如何让冷硬的机械也拥有接近人类的灵敏“触觉”,已成为攻克精细操作难题的关键。2026年1月26日,国地中心携手纬钛机器人发布了全球首个、也是目前规模最大的跨本体视触觉(Vision-Based Tactile Sensor)多模态数据集——白虎-VTouch。它的推出,不仅弥补了机器人视触觉交互的空白,也为全球开发者奉上一座高价值的数据宝库。

全球最大体量:60,000分钟的“真实触感”
有别于以往零散、单一的实验数据,白虎-VTouch 在规模与完整性上实现了跨越式提升:
海量数据规模:数据总时长超过60,000分钟,涵盖约9072万对真实物体接触样本。
多模态覆盖:融合视触觉传感器、RGB-D 深度信息与关节位姿数据,做到了多模态的深度对齐。
高精细记录:所用传感器支持640×480分辨率与120Hz高刷新率,能捕捉接触过程中的细微物理变化。
跨本体范式:从“青龙”到“手持终端”
该数据集最大的创新在于其**“跨本体”**采集特性。它打破了单一设备的数据孤岛,覆盖多类主流机器人形态:
人形机器人:以全尺寸人形平台“青龙”为代表,动力学结构复杂。
类人形轮式:包含 D-Wheel 等灵活的轮臂复合机器人。
智能终端:还纳入手持式 pika 夹爪等智能末端设备。
这种跨本体的覆盖让训练出来的算法具备更强通用性,使不同形态的机器人都能更快“学会”相近的感知能力。
“矩阵式”任务:让机器人走进烟火气
为让 AI 真正解决真实世界的问题,白虎-VTouch 围绕四大落地场景,构建出系统化的任务矩阵:
家居家政:应对多变的家庭环境与交互。
餐饮服务:稳妥处理易碎、柔性物体的抓取与放置。
工业制造:在精密装配环节实现力控微调。
特种作业:在极端或特殊场景下开展精细化操作。
该任务体系覆盖100多个原子技能与260多个接触密集型任务。研究表明,引入视触觉后,68% 的任务能获得更完整、连续的接触状态描述,这对失败恢复与精准力控至关重要。
随着 白虎-VTouch 相关研究成果与数据集说明的逐步开放,全球机器人产业有望迎来一波“感知觉醒”。当机器人不再只靠“看”去摸索世界,而是能通过“触碰”去理解物理规律,具身智能的未来才真正触手可及。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?