空间智能迎来重要开源进展。1月 27 日,蚂蚁集团旗下具身智能公司灵波科技宣布开源高精度空间感知模型 LingBot-Depth。
该模型基于奥比中光 Gemini 330 系列双目 3D 相机提供的芯片级原始数据,专注于提升环境深度感知与三维空间理解能力,旨在为机器人、自动驾驶汽车等智能终端赋予更精准、更可靠的三维视觉,在“看清楚”三维世界这一行业关键难题上取得重要突破。这也是蚂蚁灵波科技在2025外滩大会后首次亮相后,时隔半年在具身智能技术基座方向公布重要成果。
在NYUv2、ETH3D等权威基准评测中,LingBot-Depth展现出代际级优势:相比业界主流的 PromptDA与PriorDA,其在室内场景的相对误差(REL)降低超过70%,在挑战性的稀疏SfM 任务中RMSE误差降低约47%,确立了新的行业精度标杆。
![]()
图说:在最具挑战的稀疏深度补全任务中,LingBot-Depth性能整体优于现有多种主流模型。图中数值越低代表性能越好。
在家庭和工业环境中,玻璃器皿、镜面、不锈钢设备等透明和反光物体物体十分常见,但却是机器空间感知的难点。传统深度相机受制于光学物理特性,在面对透明或高反光材质时,往往无法接收有效回波,导致深度图出现数据丢失或产生噪声。
针对这一行业共性难题,蚂蚁灵波科技研发了“掩码深度建模”(Masked Depth Modeling,MDM)技术,并依托奥比中光 Gemini 330 系列双目 3D 相机进行 RGB-Depth 数据采集与效果验证。当深度数据出现缺失或异常时,LingBot-Depth 模型能够融合彩色图像(RGB)中的纹理、轮廓及环境上下文信息,对缺失区域进行推断与补全,输出完整、致密、边缘更清晰的三维深度图。值得一提的是,LingBot-Depth 模型已通过奥比中光深度视觉实验室的专业认证,在精度、稳定性及复杂场景适应性方面均达到行业领先水平。
实验中,奥比中光 Gemini 330 系列在应用LingBot-Depth 后,面对透明玻璃、高反光镜面、强逆光及复杂曲面等极具挑战的光学场景时,输出的深度图依然平滑、完整,且物体的轮廓边缘非常锐利,其效果显著优于业内领先的3D 视觉公司 Stereolabs 推出的 ZED Stereo Depth 深度相机。这意味着在不更换传感器硬件的前提下,LingBot-Depth 可显著提升消费级深度相机对高难物体的处理效果。
![]()
搭载 LingBot-Depth 后,奥比中光 Gemini 330 系列在透明及反光场景下深度图的完整性和边缘清晰度明显提升。
其效果优于业界领先的ZED 深度相机
LingBot-Depth 的优异性来源于海量真实场景数据。灵波科技采集约 1000 万份原始样本,提炼出 200 万组高价值深度配对数据用于训练,支撑模型在极端环境下的泛化能力。这一核心数据资产(包括 2M 真实世界深度数据和 1M 仿真数据)将于近期开源,推动社区更快攻克复杂场景空间感知难题。
据了解,蚂蚁灵波科技已与奥比中光达成战略合作意向。奥比中光计划基于 LingBot-Depth 的能力推出新一代深度相机。
本周蚂蚁灵波将陆续开源多款具身智能方向模型。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.