近日,蚂蚁集团旗下的蚂蚁灵波科技宣布全面开源其具身智能大模型——LingBot-VLA,以及相关的后训练代码。此举不仅代表机器人领域的一次重要进展,也进一步验证了该模型在不同类型机器人上的跨本体迁移能力,推动智能机器人向前发展。
LingBot-VLA 目前已与星海图、松灵、乐聚等多家机器人厂商完成适配。借助蚂蚁灵波自研的后训练工具链,在8卡 GPU 环境下,模型训练速度可达每秒261个样本。相比主流框架 StarVLA、OpenPI,效率提升约1.5到2.8倍,有效降低了数据与算力成本。

基于大量真实世界数据,蚂蚁灵波首次系统研究了 VLA 模型在真实机器人任务中的实际表现。结果显示,预训练数据越多,下游任务的成功率越高:从3000小时训练扩展到最终的20000小时,成功率持续提升,体现出数据规模与模型效果的良性关系。
更令人关注的是,在上海交通大学开源的具身评测基准 GM-100 测试中,LingBot-VLA 在三类真实机器人平台上的跨本体泛化平均成功率由13.0%提升到15.7%;在加入深度信息后,成功率进一步提升至17.3%。
此外,蚂蚁灵波科技还在1月27日发布了 LingBot-Depth 空间感知模型。该模型专注于真实场景的深度补全,利用双目3D相机进行 RGB-Depth 数据采集与验证。LingBot-Depth 能将受噪声影响、信息不完整的深度传感器数据转换为高质量的三维测量结果,显著提升环境的深度感知和三维理解能力。
在多项基准测试中,LingBot-Depth 在深度补全和单目深度估计等任务上表现优异,兼具精度与稳定性,处于行业领先水平。这一成果也为机器人、自动驾驶等智能终端提供了更精准的三维视觉能力。


















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?