近日,蚂蚁集团旗下蚂蚁灵波科技公布,将其具身智能大模型 LingBot-VLA 及配套的后训练代码全面开源。此举不仅是机器人技术上的一次重要进展,也验证了该模型在不同类型机器人上的跨本体迁移能力,进一步推动智能机器人的发展。
目前,LingBot-VLA 已与星海图、松灵、乐聚等多家机器人厂商实现适配。依托蚂蚁灵波自研的后训练工具链,在 8 卡 GPU 环境下,训练速度可达每秒 261 个样本。与主流框架 StarVLA、OpenPI 等相比,效率提升约 1.5 至 2.8 倍,显著降低数据与算力成本。

依托大量真实世界数据,蚂蚁灵波首次对 VLA 模型在真实机器人任务中的表现进行了系统研究。结果显示,预训练数据越多,下游任务的成功率越高:从 3000 小时训练扩展到最终的 20000 小时,成功率持续提升,体现出数据规模与模型效果的良性关系。
更值得关注的是,在上海交通大学开源的具身评测基准 GM-100 测试中,LingBot-VLA 在三类真实机器人平台上的跨本体平均成功率由 13.0% 提升至 15.7%;引入深度信息后,成功率进一步上升到 17.3%。
同时,蚂蚁灵波科技还在 1 月 27 日推出了 LingBot-Depth 空间感知模型。该模型专注真实场景的深度补全,借助双目 3D 相机采集与验证 RGB-Depth 数据。LingBot-Depth 能将受噪声影响、不完整的深度传感器数据转化为高质量的三维测量结果,大幅提升环境的深度感知与三维理解能力。
在多项基准评测中,LingBot-Depth 在深度补全和单目深度估计等任务上表现出色,展现出在精度与稳定性方面的领先水平。该模型的成功认证,也为机器人和自动驾驶等智能终端提供了更精准的三维视觉能力。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?