![]()
![]()
跨本体泛化平均成功率超Pi0.5。
作者 |许丽思
编辑 |漠影
机器人前瞻1月28日报道,今天,蚂蚁集团旗下灵波科技宣布全面开源具身大模型LingBot-VLA。这是蚂蚁开源的第一款具身智能基座模型,实现了跨本体、跨任务泛化能力,并大幅降低后训练成本。
灵波科技成立于2024年,由蚂蚁集团全资持股,是蚂蚁集团在具身智能领域的重要布局。去年9月,灵波科技推出首款单场景服务机器人Robbyant-R1,具备长序列任务能力,可完成从取菜、烹饪到清洁的全流程自动化。
昨天,灵波科技开源高精度空间感知模型LingBot-Depth,搭载LingBot-Depth模型的奥比中光Gemini 330系列相机在深度精度和像素覆盖率方面,均优于顶级深度相机。
此次LingBot-VLA的开源,不仅提供了模型权重,还同步开放了包含数据处理、高效微调及自动化评估在内的全套代码库。
01.
基于2万+小时真机数据进行预训练,
覆盖9种主流双臂机器人构型
由于本体差异、任务差异、环境差异等,具身智能模型落地一直面临严重的泛化性挑战。开发者往往需要针对不同硬件和不同任务重复采集大量数据进行后训练,直接抬高了落地成本,也使行业难以形成可规模化复制的交付路径。
针对上述问题,LingBot-VLA基于20000+小时大规模真机数据进行预训练,覆盖了9种主流双臂机器人构型(包括 AgileX,Galaxea R1Pro、R1Lite 、AgiBot G1等),从而让同一个“大脑”可以无缝迁移至不同构型的机器人,并在任务变化、环境变化时保持可用的成功率与鲁棒性。
与高精度空间感知模型LingBot-Depth配合,LingBot-VLA能获得更高质量的深度信息表征,通过“视力”的升级,真正做到“看得更清楚、做的更明白”。
02.
跨本体泛化平均成功率超越Pi0.5,
空间感知能力明显增强
在上海交通大学开源的具身评测基准GM-100(包含100项真实操作任务)测试中,LingBot-VLA在3个不同的真实机器人平台上,跨本体泛化平均成功率相较于Pi0.5的13.0%提升至15.7%(w/o Depth)。引入深度信息(w/Depth)后,空间感知能力增强,平均成功率提升至17.3%。
![]()
▲在 GM-100 真机评测中,LingBot-VLA 跨本体泛化性能超越 Pi0.5
在RoboTwin2.0仿真基准(包含50项任务)评测中,面对高强度的环境随机化干扰(如光照、杂物、高度扰动),LingBot-VLA凭借可学习查询对齐机制,高度融合深度信息,操作成功率比Pi0.5提升了9.92%。
![]()
▲在 RoboTwin 2.0 仿真评测中,LingBot-VLA 跨任务泛化性能超越 Pi0.5
据了解,在数据采集阶段,LingBot-VLA使用了星海图、松灵的硬件平台,乐聚、库帕思、国家地方共建人形机器人创新中心、北京人形机器人创新中心有限公司、博登智能、睿尔曼也在模型预训练阶段提供了高质量数据支持。
目前,LingBot-VLA已与星海图、松灵、乐聚等厂商完成适配,验证了模型在不同构型机器人上的跨本体迁移能力。
03.
结语:具身基座模型决定了
具身智能是否实现规模化应用
蚂蚁灵波科技CEO朱兴称,具身智能要想大规模应用,依赖高效的具身基座模型,这直接决定了是否可用以及能否用得起。
通过LingBot-VLA的开源,蚂蚁灵波希望积极探索具身智能上限,推进具身智能研发早日进入可复用、可验证、可规模化落地的新阶段,构建涵盖基础模型、多模态、推理、新型架构及具身智能的完整技术体系与开源生态,让AI加速在物理世界渗透普及。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.