机器人感知再升级:全球首个跨本体视触觉大模型数据集“白虎-VTouch”官宣上线

伴随具身智能的快速进步,赋予机器人类似人类的灵敏“触觉”已成为突破瓶颈的关键点。2026年1月27日,国家地方共建人形机器人创新中心联合多家科研团队,推出了“白虎-VTouch”——一款跨本体视触觉多模态数据集。 这一发布不仅补齐了大规模视触觉数据的缺口,也为全球机器人研发者带来一座高价值的“数字矿山”。

海量数据积累:超过6万分钟的“感官档案”

作为当下全球体量最大的同类开源数据集之一,“白虎-VTouch”在数据的广度与深度上均迎来跃升:

超长交互时长:累计采集超过60,000分钟的真实机器人交互数据。

多维感官对齐:深度融合视觉视频、触觉信号与机器人关节位姿等多模态信息。

物理特性捕捉:借助高精度传感器,AI可学习物体在接触过程中的微小物理变化与形变规律。

跨本体范式:拆除不同硬件的“感知壁垒”

这套数据集最大的看点,是其**“跨本体”**的能力。 它不局限于某一款机器人,而覆盖多种形态(如人形机器人、轮式机器人、机械臂等)的感知数据。 这种通用的数据设计,助力AI模型在不同硬件间快速迁移与泛化,让各类机器人更快掌握精细操控。

赋能具身智能:从“看见”走向“摸透”

过去,机器人操作主要依靠视觉;但面对透明材质、弱光环境或高精度装配,视觉常常不够可靠。 “白虎-VTouch”的推出,意味着机器人从单一“视觉驱动”迈向“视觉+触觉融合”的新阶段。 这套数据将为家居服务、工业精密制造、医疗辅助等应用提供更稳固的基础支撑。

随着数据集全面开源,全球机器人社区有望掀起新一轮感知算法迭代。 当机器人的“指尖”不再冰冷迟钝,具备灵巧操控的具身智能时代将加速到来。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞15 分享