在具身智能高速演进的当下,让机器人拥有像人类一样灵敏的“触觉”正成为关键突破口。2026年1月27日,国家地方共建人形机器人创新中心携手多家科研团队,联合推出跨本体视触觉多模态数据集——“白虎-VTouch”。这一发布不仅补齐了大规模视触觉数据的空白,也为全球机器人开发者提供了一座极具价值的“数据金矿”。
海量数据沉淀:超6万分钟的“感官档案”
作为当前全球规模最大的同类开源数据集之一,“白虎-VTouch”在数据的广度与深度上实现了显著跃升:
超长交互时长:涵盖超过60,000分钟的机器人真实交互记录。
多维感官对齐:深度融合视觉视频、触觉信号与机器人关节位姿等多模态信息。
物理特性捕捉:依托高精度传感器采集,让AI得以学习物体接触过程中的细微变化与形变规律。
跨本体范式:打破不同硬件间的“感知隔阂”
该数据集的最大看点,是其**“跨本体”**属性。它不局限于单一机器人型号,而是覆盖人形机器人、轮式平台、机械臂等多种构型的感知数据。这种通用的数据设计,有助于AI模型在不同硬件之间快速迁移与泛化,让各类形态的机器人更快掌握精细操作能力。
赋能具身智能:从“看见”到“摸透”
过去,机器人操作多依赖视觉;面对透明材质、弱光环境或微小装配任务时,视觉常常不够可靠。“白虎-VTouch”的发布,意味着机器人从单一“视觉主导”迈向“视触融合”的新阶段。该数据集将为家居服务、工业精密制造、医疗辅助等场景提供更坚实的底层支撑。
随着数据集开源,全球机器人领域有望迎来一波感知算法的迭代浪潮。当机器人的指尖不再冰冷迟钝,一个真正具备灵巧操作能力的具身智能时代正在加速到来。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?