来源:市场资讯
(来源:网易智能)
2月10日,阿里巴巴达摩院发布具身智能大脑基础模型RynnBrain,并宣布开源包括30B MoE(混合专家模型)在内的全系列7个模型。据了解,该模型旨在提升机器人的时空记忆与空间推理能力,目前模型在16项具身开源评测榜单上刷新纪录(SOTA)。
![]()
据介绍,当前具身智能模型的发展面临泛化能力不足的挑战。行业内的动作模型(VLA)受限于数据稀缺,而大脑模型(VLM)则普遍缺乏长期记忆,且在物理空间认知上存在一定局限,容易产生幻觉。
针对上述痛点,RynnBrain引入了时空记忆和物理世界推理机制。相关技术文档显示,该能力允许机器人在历史记忆中定位物体与目标区域,并预测运动轨迹。此外,通过文本与空间定位交错的推理策略,模型能够更紧密地结合物理环境进行任务规划。例如,机器人在任务被中断后,仍能记忆此前的时空状态并恢复工作。
![]()
在技术架构方面,RynnBrain基于Qwen3-VL开发,并采用自研的RynnScale架构进行优化。据达摩院方面披露,该模型使用了超过2000万对数据进行训练。此次开源的7个模型涵盖了全尺寸基础模型及后训练专有模型。其中,30B参数的MoE架构模型备受关注,据称其仅需3B的推理激活参数即可达到较高的运行效果,有助于提升机器人的动作流畅度。
![]()
评测数据方面,RynnBrain在环境感知、对象推理、第一人称视觉问答及轨迹预测等16项具身开源评测榜单上刷新了成绩,在部分指标上超越了谷歌Gemini Robotics ER 1.5及英伟达Cosmos Reason 2等同类模型。同时,达摩院还开源了全新的评测基准RynnBrain-Bench,主要用于评估模型在时空细粒度具身任务上的表现。
达摩院具身智能实验室负责人赵德丽表示:“RynnBrain 首次实现了大脑对物理世界的深度理解与可靠规划,为大小脑分层架构下的通用具身智能迈出关键一步。我们期待它加速 AI 从数字世界走向真实物理场景的落地进程。”目前,相关代码及模型权重已在GitHub及Hugging Face平台上线。(袁宁)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.