灵波科技公布具身智能模型,推动攻克复杂场景空间感知难题
让机器人“看清三维世界”
■本周内,灵波科技将陆续推出多款具身智能方向模型,覆盖空间感知、智能交互等多个核心领域
昨天,上海灵波科技宣布开源高精度空间感知模型LingBot-Depth,这是灵波科技成立一年以来首次公布具身智能技术基座成果,也拉开了本周连续发布多款具身智能模型的序幕。
LingBot-Depth模型聚焦让机器人“看清三维世界”这一关键难题。在家庭、工业场景中,玻璃器皿、镜面、不锈钢设备等透明反光物体随处可见,传统深度相机对此长期“束手无策”,常因无法接收有效光学信号,导致机器人感知出现偏差、操作失误。
此次开源的模型成功破解了这一痛点。通过融合彩色图像中的纹理、轮廓及环境信息,它能智能补全传统设备缺失的深度数据,输出清晰完整的三维场景图。即便面对透明玻璃、强逆光等复杂光学环境,搭载LingBot-Depth模型的设备也能精准捕捉物体轮廓,性能显著优于业内主流产品。这意味着机器人在家庭服务、工业操作等场景中,抓取、避让等动作的精准度将大幅提升。
基于灵波科技的模型能力,国内机器人视觉龙头企业奥比中光计划推出新一代深度相机,实现“算法+硬件”的协同创新,无需更换高端传感器就能提升消费级设备性能。
在多项权威技术评测中,LingBot-Depth模型展现出代际级优势。相比主流技术,该模型在室内场景感知误差降低超70%,在复杂任务中的精度提升近五成。同时,灵波科技采集约1000万份原始样本,提炼出200万组高价值深度配对数据用于训练,支撑模型在极端环境下的泛化能力。这一核心数据资产将于近期开源,推动更快攻克复杂场景空间感知难题。
值得关注的是,本周内,灵波科技将陆续推出多款具身智能方向模型,覆盖空间感知、智能交互等多个核心领域。
(来源:解放日报 记者 查睿)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.