空间智能迎来一项重要的开源进展。1月27日,蚂蚁集团旗下的具身智能公司灵波科技宣布开源高精度空间感知模型 LingBot-Depth。
该模型依托奥比中光 Gemini330 系列双目 3D 相机的芯片级原始数据,重点提升环境深度理解与三维空间认知能力,旨在为机器人、自动驾驶等智能设备提供更精准、更稳定的三维视觉,在“看清楚”真实三维世界这一行业痛点上实现突破。这也是蚂蚁灵波科技在2025外滩大会后首次公开亮相,时隔半年在具身智能技术底座方向发布的又一项重要成果。
在 NYUv2、ETH3D 等权威评测中,LingBot-Depth 展示出代际级优势:相较于业内主流的 PromptDA 与 PriorDA,其在室内场景的相对误差(REL)降低超过 70%,在高难度的稀疏 SfM 任务中 RMSE 误差下降约 47%,树立了新的行业精度标准。

(图说:在最具挑战的稀疏深度补全任务中,LingBot-Depth 整体表现优于多款主流模型。图中数值越低代表效果越好。)
在家庭与工业场景中,玻璃器皿、镜面、不锈钢设备等透明或高反光材质非常常见,但却是机器空间感知的难点。传统深度相机受限于光学特性,面对这类材质时往往无法获得有效回波,导致深度图出现缺失或噪声。
为解决这一共性问题,蚂蚁灵波科技研发了“掩码深度建模”(Masked Depth Modeling,MDM)技术,并依托奥比中光 Gemini330 系列双目 3D 相机完成 RGB-Depth 数据采集与验证。当深度数据出现缺口或异常时,LingBot-Depth 能融合彩色图像(RGB)中的纹理、轮廓与上下文信息,对缺失区域进行推断补全,输出更完整、致密、边缘更清晰的三维深度图。值得一提的是,LingBot-Depth 已通过奥比中光深度视觉实验室专业认证,在精度、稳定性与复杂场景适配方面达到行业领先水平。
实验显示,奥比中光 Gemini330 系列在应用 LingBot-Depth 后,面对透明玻璃、强反光镜面、强逆光以及复杂曲面等高难光学场景时,深度图依然平滑、完整,且物体边缘锐利清晰;整体效果明显优于业内领先的 3D 视觉公司 Stereolabs 推出的 ZED Stereo Depth 深度相机。这意味着在不更换传感器硬件的情况下,LingBot-Depth 即可显著提升消费级深度相机对高难物体的处理能力。

(图说:[上图] 搭载 LingBot-Depth 后,奥比中光 Gemini330 系列在透明与反光场景中的深度图完整性与边缘清晰度显著提升;[下图] 其效果优于业内领先的 ZED 深度相机)
LingBot-Depth 的优势离不开海量真实场景数据。灵波科技共采集约 1000 万份原始样本,最终提炼出 200 万组高价值深度配对数据用于训练,保障模型在极端场景下的泛化能力。这一核心数据资产(包含 2M 真实世界深度数据与 1M 仿真数据)将于近期开源,助力社区更快攻克复杂场景的空间感知难题。
据悉,蚂蚁灵波科技已与奥比中光达成战略合作意向。奥比中光计划基于 LingBot-Depth 的能力推出新一代深度相机。
本周,蚂蚁灵波将陆续开源多款面向具身智能的模型。

















用户38505528 5个月前0
粘贴不了啊用户12648782 6个月前0
用法杂不对呢?yfarer 6个月前0
草稿id无法下载,是什么问题?