蚂蚁集团旗下具身智能公司灵波科技近日发布消息,已将其具身大模型 LingBot-VLA 正式开源。该模型在多项权威基准上表现出色,同时开放完整的后训练代码库,目标是降低具身智能研发门槛。
性能表现:多平台泛化与精确操控
LingBot-VLA在真实环境与仿真场景中,都展现出很强的准确度与泛化能力:
真实场景测评:在上海交通大学 GM-100 基准上,LingBot-VLA 在三种不同机器人平台上取得 15.7% 的跨本体泛化平均成功率,超过 Pi0.5 的 13.0%。
空间感知增强:引入深度信息后,平均成功率进一步提升到 17.3%。
仿真环境领先:在 RoboTwin2.0 仿真评测中,面对光照、杂物等随机干扰,操作成功率比 Pi0.5 高出 9.92%。
技术核心:高效的后训练工具链
LingBot-VLA 的优势不止性能,更体现在训练效率与迁移能力:
低成本迁移:依托大规模预训练,模型在下游任务上用更少数据就能达到并超越主流模型的表现。
高吞吐训练:团队打造的高效工具链在 8 卡 GPU 配置下,单卡每秒可处理 261 个样本,训练效率是 StarVLA、OpenPI 等主流框架的 1.5 至 2.8 倍。
开源内容:一键获取全套资源
本次开源力度十足,灵波科技提供了从权重到工具的全链路支持:
模型权重:已在 Hugging Face 与魔搭社区(ModelScope)同步上线。
代码库:GitHub 仓库已开放,包含数据处理、高效微调与自动化评估等全套代码。
数据集与报告:同步提供 GM-100 数据集与详细技术报告。
LingBot-VLA 的全面开源,为机器人开发者带来一个实用、高效且低成本的 VLA 模型选项,有望加速具身智能从实验室走向大规模真实应用。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?