蚂蚁集团旗下的具身智能企业灵波科技近日宣布,正式将其具身大模型 LingBot-VLA 开源。该模型在多项权威基准上表现出色,同时配套的完整后训练代码库也一并放出,旨在进一步降低具身智能研发门槛。
性能表现:多平台泛化与精准操控
LingBot-VLA在真实世界与仿真环境中均展现出扎实的准确率与良好的泛化能力:
真实场景测评:基于上海交通大学推出的 GM-100 基准,LingBot-VLA 在三种不同机器人平台上实现了 15.7% 的跨本体泛化平均成功率,优于 Pi0.5 的 13.0%。
空间感知增强:加入深度信息后,平均成功率进一步提升至 17.3%。
仿真环境领跑:在 RoboTwin2.0 仿真评测中,面对光照变化、杂物等随机干扰,其操作成功率相较 Pi0.5 提高了 9.92%。
技术核心:高效的后训练工具链
LingBot-VLA的优势不仅体现在效果上,也在于训练效率与迁移便捷性:
低成本迁移:依托大规模预训练,模型在下游任务中使用更少数据即可达到并超越主流模型的表现。
高吞吐训练:团队构建的高效工具链在 8 卡 GPU 条件下,单卡每秒可处理 261 个样本,整体训练效率达到 StarVLA、OpenPI 等主流框架的 1.5 至 2.8 倍。
开源内容:全套资源一键获取
此次开源覆盖面广,从模型到工具链提供完整支持:
模型权重:已在 Hugging Face 与魔搭社区(ModelScope)同步上线。
代码库:GitHub 仓库现已开放,包含数据处理、高效微调与自动化评估在内的全部代码。
数据集与报告:同步提供 GM-100 数据集以及详尽的技术报告。
LingBot-VLA 的全面开源,为机器人开发者带来一套实用、高效、低成本的 VLA 方案,有望加速具身智能从实验室走向大规模真实应用。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?