在昨日开源高精度空间感知模型 LingBot-Depth 之后,蚂蚁集团旗下灵波科技今日宣布:全面开源具身大模型 LingBot-VLA。作为面向真实机器人操作场景的“通用大脑”,LingBot-VLA 具备跨本体、跨任务的泛化能力,并显著降低后训练成本,推动“一脑多机”走向工程化落地。
在上海交通大学开源的具身评测基准 GM-100(含100项真实操作任务)中,LingBot-VLA 在3个不同的真实机器人平台上实现跨本体泛化,平均成功率从 Pi0.5 的13.0% 提升至15.7%(w/o Depth)。加入深度信息(w/ Depth)后,空间感知进一步加强,平均成功率提升至17.3%,刷新真机评测成功率纪录,证明其在真实环境中的表现更优。

(图说:在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能超越 Pi0.5)
在 RoboTwin2.0 仿真基准(包含50项任务)评测里,面对强随机性的环境干扰(如光照变化、杂物干扰、台面高度扰动),LingBot-VLA 借助可学习的查询对齐机制,高度融合深度信息,操作成功率较 Pi0.5 提升9.92%,在从仿真到真实应用的全链路表现中取得领先。

(图说:在 RoboTwin2.0 仿真评测中,LingBot-VLA 跨任务泛化性能超越 Pi0.5)
长期以来,由于本体、任务与环境差异显著,具身智能在落地时面临严峻的泛化挑战。开发者常常需要针对不同硬件与任务重复采集大量数据并进行后训练,这不仅抬高了部署成本,也难以形成可规模复制的交付路径。
为解决上述问题,LingBot-VLA 以 20000+ 小时的大规模真机数据完成预训练,覆盖 9 种主流双臂机器人构型(包括 AgileX、Galaxea R1Pro、R1Lite、AgiBot G1 等),让同一个“脑”可无缝迁移到不同构型的机器人上,并在任务和环境变化时仍保持稳定的成功率与鲁棒性。与高精度空间感知模型 LingBot-Depth 配合后,LingBot-VLA 可获得更高质量的深度表征,相当于“视力”升级——看得更清楚,动作更可靠。
凭借扎实的基座能力,LingBot-VLA 大幅降低下游任务的适配门槛,仅需 80 条演示数据即可实现高质量任务迁移。同时,配合底层代码库的深度优化,其训练效率达到 StarVLA、OpenPI 等主流框架的 1.5~2.8 倍,实现数据与算力成本的双重下降。
此次开源不仅放出模型权重,还同步开放涵盖数据处理、高效微调与自动化评估的整套代码库。这将显著缩短训练周期,降低商业化落地所需的算力与时间成本,帮助开发者以更低门槛快速适配自有场景,进一步提升模型的实用度。
蚂蚁灵波科技 CEO 朱兴表示,具身智能要想规模化应用,离不开高效可靠的具身基座模型,它直接影响“能不能用、用得起吗”。通过开源 LingBot-VLA,团队希望持续探索具身智能的上限,推动研发走向可复用、可验证、可规模化落地的新阶段,让 AI 更快渗透物理世界,早日服务每一个人。
LingBot-VLA 是蚂蚁开源的第一款具身智能基座模型,也是蚂蚁在 AGI 研发上的又一次探索实践。朱兴介绍,蚂蚁集团将坚定以开源开放的方式推动 AGI,打造 InclusionAI,构建覆盖基础模型、多模态、推理、新型架构与具身智能的完整技术体系与开源生态。此次 LingBot-VLA 的开源,正是 InclusionAI 的关键一步,“期待与全球开发者携手,加速具身智能迭代与规模化应用,推动 AGI 更快到来”。
据悉,在数据采集阶段,LingBot-VLA 使用了星海图、松灵的硬件平台;乐聚、库帕思、国家地方共建人形机器人创新中心、北京人形机器人创新中心有限公司、博登智能、睿尔曼在预训练阶段提供了高质量数据支持。目前,LingBot-VLA 已与星海图、松灵、乐聚等厂商完成适配,验证了其在不同构型机器人上的跨本体迁移能力。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?