蚂蚁灵波全面开源!双模机器人迎来新突破,空间感知更精准

近日,蚂蚁集团旗下的蚂蚁灵波科技宣布全面开源其具身智能大模型——LingBot-VLA,以及相关的后训练代码。此举不仅代表机器人领域的一次重要进展,也进一步验证了该模型在不同类型机器人上的跨本体迁移能力,推动智能机器人向前发展。

LingBot-VLA 目前已与星海图、松灵、乐聚等多家机器人厂商完成适配。借助蚂蚁灵波自研的后训练工具链,在8卡 GPU 环境下,模型训练速度可达每秒261个样本。相比主流框架 StarVLA、OpenPI,效率提升约1.5到2.8倍,有效降低了数据与算力成本。

image.png

基于大量真实世界数据,蚂蚁灵波首次系统研究了 VLA 模型在真实机器人任务中的实际表现。结果显示,预训练数据越多,下游任务的成功率越高:从3000小时训练扩展到最终的20000小时,成功率持续提升,体现出数据规模与模型效果的良性关系。

更令人关注的是,在上海交通大学开源的具身评测基准 GM-100 测试中,LingBot-VLA 在三类真实机器人平台上的跨本体泛化平均成功率由13.0%提升到15.7%;在加入深度信息后,成功率进一步提升至17.3%。

此外,蚂蚁灵波科技还在1月27日发布了 LingBot-Depth 空间感知模型。该模型专注于真实场景的深度补全,利用双目3D相机进行 RGB-Depth 数据采集与验证。LingBot-Depth 能将受噪声影响、信息不完整的深度传感器数据转换为高质量的三维测量结果,显著提升环境的深度感知和三维理解能力。

在多项基准测试中,LingBot-Depth 在深度补全和单目深度估计等任务上表现优异,兼具精度与稳定性,处于行业领先水平。这一成果也为机器人、自动驾驶等智能终端提供了更精准的三维视觉能力。

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞10 分享