伴随具身智能的快速进步,赋予机器人类似人类的灵敏“触觉”已成为突破瓶颈的关键点。2026年1月27日,国家地方共建人形机器人创新中心联合多家科研团队,推出了“白虎-VTouch”——一款跨本体视触觉多模态数据集。 这一发布不仅补齐了大规模视触觉数据的缺口,也为全球机器人研发者带来一座高价值的“数字矿山”。
海量数据积累:超过6万分钟的“感官档案”
作为当下全球体量最大的同类开源数据集之一,“白虎-VTouch”在数据的广度与深度上均迎来跃升:
超长交互时长:累计采集超过60,000分钟的真实机器人交互数据。
多维感官对齐:深度融合视觉视频、触觉信号与机器人关节位姿等多模态信息。
物理特性捕捉:借助高精度传感器,AI可学习物体在接触过程中的微小物理变化与形变规律。
跨本体范式:拆除不同硬件的“感知壁垒”
这套数据集最大的看点,是其**“跨本体”**的能力。 它不局限于某一款机器人,而覆盖多种形态(如人形机器人、轮式机器人、机械臂等)的感知数据。 这种通用的数据设计,助力AI模型在不同硬件间快速迁移与泛化,让各类机器人更快掌握精细操控。
赋能具身智能:从“看见”走向“摸透”
过去,机器人操作主要依靠视觉;但面对透明材质、弱光环境或高精度装配,视觉常常不够可靠。 “白虎-VTouch”的推出,意味着机器人从单一“视觉驱动”迈向“视觉+触觉融合”的新阶段。 这套数据将为家居服务、工业精密制造、医疗辅助等应用提供更稳固的基础支撑。
随着数据集全面开源,全球机器人社区有望掀起新一轮感知算法迭代。 当机器人的“指尖”不再冰冷迟钝,具备灵巧操控的具身智能时代将加速到来。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?