Meta开源SAM 3D:一张照片极速生成可交互3D模型,空间理解再创SOTA

Meta AI推出Segment Anything家族最新成员SAM3D,包含SAM3D Objects与SAM3D Body两套权重:前者覆盖通用物体/场景,后者专注人物重建。两者均可仅凭一张2D照片直接生成带纹理、材质且几何一致的3D资产,并在真实世界图片测试中,相比主流NeRF与Gaussian Splatting方案表现更优。

QQ20251120-105802.jpg

SAM3D的核心思路是将空间位置与语义联合编码,为每个像素预测3D坐标和表面法向,从而更符合物理规律,可直接应用于AR/VR、机器人以及影视后期制作。Meta同步开源权重、推理代码与评测基准,并在Facebook Marketplace上线“View in Room”功能,用户可把商品的3D模型投射到自家房间中预览。

官方测试显示:SAM3D Objects在公开数据集上的Chamfer Distance降低28%,法向一致性提升19%;SAM3D Body在AGORA-3D基准的MPJPE指标较当前单图最佳方法领先14%,并支持一键绑定Mixamo骨架进行驱动。

Meta透露,该模型已集成至Quest3与Horizon Worlds创作工具,开发者可通过Edits与Vibes应用调用API,按量计费为0.02美元/模型;2026年Q1将上线手机端实时推理SDK。

项目地址:https://ai.meta.com/blog/sam-3d/

爱智特-AI智能体一站式企业智能体交易学习发行平台|智能体教程|智能体社区
© 版权声明
THE END
喜欢就支持一下吧
点赞10 分享