网易首页 > 网易号 > 正文 申请入驻

VLA到RoboOmni,全模态具身新范式让机器人察言观色、听懂画外音

0
分享至



复旦⼤学、上海创智学院与新加坡国立⼤学联合推出全模态端到端操作⼤模型 RoboOmni,统⼀视觉、⽂本、听觉与动作模态,实现动作⽣成与语⾳交互的协同控制。开源 140K 条语⾳ - 视觉 - ⽂字「情境指令」真机操作数据,引领机器⼈从「被动执⾏⼈类指令」迈向「主动提供服务」新时代。

在⽇常⽣活中,⼈类很少发出⽣硬的命令式指令⸺「把杯子放到桌上」。更多时候,我们的真实意图隐藏在对话、语⽓、甚⾄环境声音中。

「这果汁好酸啊」,其实意味着想换别的饮料;听到雷声骤起,就知道该去关窗收⾐;从声音辨出是爷爷在说话,会主动问他是否想喝最爱的热茶⽽不是可乐;在多⼈同时说话的场景中,还要分清谁才是发出指令的⼈。

现在,机器⼈终于能听懂这些「潜台词」了!复旦⼤学与新加坡国立⼤学联合发布RoboOmni,不仅重新定义了机器⼈交互的「情境指令」新范式,更通过全模态端到端的统⼀架构,让机器⼈⾸次具备了「察⾔观⾊」的认知能力。



  • 论文标题:RoboOmni: Proactive Robot Manipulation in Omni-modal Context
  • 论⽂地址:https://arxiv.org/pdf/2510.23763
  • 代码地址:https://github.com/OpenMOSS/RoboOmni
  • 模型 & 数据地址: https://huggingface.co/collections/fnlp/roboomni
  • 项⽬主⻚:https://OpenMOSS.github.io/RoboOmni

具身交互范式革命:从「显式指令」到「情境指令」



图 1:根据指令类型与输⼊对机器⼈操控模型的分类。RoboOmni 通过整合跨模态情境指令,实现了端到端多模态交互与动作执行的⼀体化。

当前主流的 VLA 模型存在两⼤局限:(1)现有模型⼤多依赖于精确、显式的指令(如「拿起苹果」),⽆法理解隐含的意图。(2)现有⽅法的指令输⼊严重依赖于⽂本,即便使⽤语音,也需要先通过 ASR (Automatic Speech Recognition)技术转成⽂字,这丢失了语调、情感、说话⼈身份等副语⾔关键信息,更⽆法感知⻔铃、雷声等环境声音的语义。

这意味着,过去的机器⼈是⼀个需要「精确编程」的迟钝执⾏者,⽽⾮⼀个能「察⾔观⾊」的智能伙伴。

复旦联合新国立提出的「跨模态情境指令」 (contextual instrcution) 新范式,旨在彻底改变这⼀现状。它要求机器⼈能像⼈⼀样,主动融合语音对话、环境声音和视觉观察,从多模态上下⽂中推断出⽤户的真实意图。

  • 从被动到主动:不再是等待明确的「关窗」指令,⽽是在听到雷声、看到阳台⻔开着时,主动询问:「需要我关窗吗?」
  • 从单模态到全模态:同时理解语音中的情感倾向(如不满的语⽓)、说话⼈身份(是妈妈的需求还是⼥⼉的?)、环境声音(⻔铃、警报、厨房噪音)以及视觉观察(画⾯中的物体状态和⼈物关系)的语义。

这不再是简单的指令执⾏,⽽是让机器⼈具备了真正的情境理解能力。它就像⼀个贴⼼的私⼈助理,能够从⼀句嘀咕、⼀段对话和周围的环境中读懂潜台词,让服务变得⾃然、主动且精准。

RoboOmni 架构:全模态端到端统一模型设计



图 2:RoboOmni 采⽤ Perceiver-Thinker-Talker-Executor 的模型结构,通过在共享表征空间内统⼀视觉、⽂本、听觉与动作模态,实现动作⽣成与语音输出的协同控制。

为解决传统⽅案的局限,研究团队提出了RoboOmni⸺⼀个基于全模态⼤模型的端到端框架,真正实现了从意图识别、交互确认到动作执⾏的完整闭环。与需要将语音转⽂字(ASR)的「拼接」系统不同,RoboOmni 在⼀套统⼀的模型中,直接融合语音、环境声音和视觉信号来推断意图,并能通过语音交互进⾏确认,输出动作 token 执⾏操作。

其核心是「感知-思考-回应- 执行」(Perceiver-Thinker-Talker-Executor)的统⼀端到端架构:

  • 统一感知 (Perceiver):作为「眼睛」和「⽿朵」,它将摄像头看到的画⾯、⻨克⻛听到的语⾳和环境声⾳,统⼀编码到同⼀个语义空间里。这意味着,⼀声 「雷响」和画⾯中的「开着的窗户」被关联起来理解,为后续推理打下基础。
  • 中央思考 (Thinker):作为「大脑」,它基于强⼤的 Qwen2.5-Omni 模型构建。它接收融合后的多模态信息,在⼀个统⼀的词表空间⾥进⾏推理,并⽣成交互⾏为。输出内容包含文本回复和机器⼈动作 token 的序列,实现了感知、语⾔与控制的深度融合。
  • 自然回应 (Talker):作为「嘴巴」,它让机器人能够直接进⾏语⾳交流。它接收 Thinker 的潜空间表示,⽣成⾃然、流畅的语⾳波形,从⽽实现与⼈的多轮、⽆缝语⾳对话。
  • 精准执⾏ (Executor): 作为「双⼿」,它负责将 Thinker ⽣成的动作 token 解码为机器⼈可以执⾏的精确命令。它采⽤ FAST + 动作编码技术,能够流畅地控制 7 ⾃由度机械臂完成各种复杂操作。

简⽽⾔之,RoboOmni 通过统⼀端到端架构设计实现了:

  • 全模态统⼀建模:从根源上避免了 ASR 转写的信息损失,能更好地保留语调、情感和环境语义,从⽽实现真正的「情境理解」。
  • 闭环具身智能:将「全模态」的概念从感知和认知,真正拓展到了⾏动层⾯,在⼀个模型内完成了「感知 - 推断 - 确认 - 执⾏」全流程。
  • 双向自然交互:⽀持语⾳回应与动作执⾏的双通道输出,机器⼈不仅能听会说,还能在对话中确认意图并执⾏任务,实现了⾃然的⼈机协作。

OmniAction:为「具身情境认知」量身打造的大规模数据集

主动式机器⼈必须从⾳频和视觉观察中推断隐含意图,但现有数据集缺乏包含视觉 - ⾳频模态组合以及意图推理所需的推断指令。

为了弥补这⼀不⾜,研究团队构建了OmniAction⸺⾸个大规模具身情境指令数据集,包含基于语⾳、环境⾳频、声⾳事件和视觉的情境指令和动作轨迹。



图 3:OmniAction 数据集构建流程。

海量规模与丰富多样性

  • 141,162 条多模态样本,覆盖112 种技能与748 种物体。
  • 5,096 种独特音色,精细覆盖⽼年 / 中年 / ⼉童和男性 / ⼥性的不同身份组合,还原真实多样的⽤户⾳⾊。
  • 2,482 种环境音效640 种生活背景噪音,构建出从厨房翻炒到客厅电视的真实听觉场景。

六大情境指令:精心设计的「认知考题」

OmniAction 的核⼼在于其六大情境指令类型,它们共同构成了考验机器⼈「情商」与「智商」的⽴体维度:



高标准数据构建流水线

为确保数据的真实性与⾼质量,研究团队采⽤三阶段严谨流程:

  1. 文本剧本生成:基于真实机器⼈任务,利⽤⼤模型将直接指令改写为富含情境的多⼈⾃然对话。
  2. 高保真听觉实现:采⽤ MOSS-TTSD、CosyVoice 等语⾳合成与声⾳克隆技术,⽣成带有真实⼝吻、语⽓和重叠对话的⾳频,并精准混⼊环境⾳与背景噪⾳。
  3. 严格人工验证:经过严格的⼈⼯校验,确保任务意图能够被准确恢复,⼀致率⾼达 98.7%。

推出 OmniAction-LIBERO 仿真基准

为推动领域发展,研究团队还基于 LIBERO 基准发布了OmniAction-LIBERO仿真基准。它提供了240 个涵盖不同指令类型的评估任务,并包含真实志愿者录⾳版本,为公平、系统地评估模型的「情境理解」能力树⽴了新标杆。

实验结果:全面超越传统级联方案,从指标到体验的跨越

为全⾯评估 RoboOmni,研究团队设置了严谨的对⽐实验。基线模型涵盖了当前最具代表性的开源 VLA 模型,并采⽤两种主流范式进⾏对⽐:其⼀是真值文本基线(直接输⼊原始⽂本,避免了 ASR 带来的⽂字识别错误),其⼆是ASR 文本基线(语⾳先经 Whisper 转⽂字再输⼊,代表当前语⾳交互的常⻅⽅案)。这两种基线旨在验证端到端全模态处理的必要性。

核心突破:情境指令任务完成率碾压级领先



表 1:RoboOmni 在 OmniAction-LIBERO 基准上的性能表现,在四⼤任务套件、六种情境指令下均⼤幅领先。

如图表 1 所示,在涵盖四大任务类型、六种情境指令的 OmniAction-LIBERO 基准上,RoboOmni 取得了85.6%的综合成功率,展现出压倒性优势,远超 OpenVLA (3.9%)、$\pi_0$(4.4%)、NORA(25.9%)。在其他传统 ASR 级联⽅案成功率⼤多低于 10% 的情况下,RoboOmni 在全部六种情境指令上均保持了76% 以上的⾼成功率。

关键发现:

  1. 端到端音频处理的必要性:级联基线(即便使⽤真值⽂本)⽆法捕捉⾳⾊、语调、重叠语⾳等副语⾔信息,⽽ RoboOmni 通过直接处理⾳频信号,完整保留了这些关键情境线索。
  2. 意图模糊下的鲁棒识别:在包含多个可操作物体和动作选择的意图复杂任务中(Goal 和 Object 任务),基线模型性能急剧下降(最佳基线仅 16.3%),⽽ RoboOmni 在这些任务中仍保持 85.8% 和 84.0% 的⾼成功率。
  3. 不同情境指令的认知难度差异:对模型⽽⾔,双⼈对话和重叠语⾳任务相对简单(约 88%),⽽⾮语⾳线索任务最具挑战(约 82%),因其需要识别环境声⾳并与其他模态信息整合。

真实世界表现:从仿真到现实的完美迁移



图 4:RoboOmni 在 WidowX 250S 真实机器⼈上的成功案例演示。

真机演示(图 4)进⼀步验证了其能力可⽆缝迁移到现实世界。RoboOmni 展现出三重核心能力:

  1. 精准的意图识别能力:能够准确融合视觉和听觉线索来推断⽤户意图。例如通过语⾳内容识别⽬标物体,同时通过视觉场景判断正确的放置位置(如识别出当前场景为吃⽕锅,需要放置容器是⽕锅⽽⾮其他)。
  2. 有效的主动交互机制:在推断出⽤户的潜在意图后,会主动提出澄清性问题(如「是否需要我……?」),并在获得⽤户确认后才执⾏动作,确保每个⾏动都经过深思熟虑且符合⽤户真实意图。
  3. 可靠的物理执行性能:能够在存在多个⼲扰物的复杂场景中准确定位⽬标物体,并将其精确放置到指定位置,展现了在真实环境中的稳健操作能力。

主动服务能力:不仅是执行,更是主动服务



图 5:主动服务能⼒的定性与定量评估。左图显示意图识别准确率,右图为交互案例对⽐。

真正的智能体现在协作中。如图 5 所示,在专⻔的主动协助能力评估中,RoboOmni 的意图识别准确率⾼达 88.9%,显著优于其他模型(GPT-4o+ASR 仅为 55.6%)。

更值得称道的是其「认知智能」:(1)主动澄清机制:当遇到「蛋饺」等模糊指令时,不会盲⽬执⾏,⽽是主动询问「要我把蛋饺放进⽕锅吗?」;(2)多模态完美融合:在⻔铃场景中,能够结合对话上下⽂和环境声⾳信号,提出「我听到⻔铃了⸺应该把⻥丸放进⽕锅吗?」;(3)自然对话流维护:始终使⽤「您希望我…… 吗?」等尊重性、协作性的语⾔模式,与基线模型常常发出的直接命令或陈述形成鲜明对⽐。这⼀系列能力使得 RoboOmni 不再是简单的指令执⾏器,⽽是能够真正理解情境、主动提供服务的智能伙伴。

架构优势:效率与性能兼得



图 6:(a) 使⽤ OmniAction 预训练能极⼤提升训练效率 (b) 端到端建模显著提升推理效率,延迟仅为级联方案的⼀半。

RoboOmni 的优势不仅在于效果,更在于效率。深⼊分析表明,其架构设计和⼤规模预训练带来了巨⼤增益:如图 6 (a) 所示,经过 OmniAction 预训练的模型,仅需 2K 步微调即可达到近 90% 准确率,展现了卓越的训练效率;如图 6 (b) 所示,端到端架构消除了 ASR 瓶颈,其推理速度是传统级联⽅案的近两倍(延迟仅为 0.49 倍)。

未来展望:通向通用具身智能之路

RoboOmni 的出现标志着机器⼈交互范式从「服从命令的⼯具」向「洞察意图的伙伴」的根本转变。这⼀转变体现在三个层⾯:

  1. 在交互上,从「精确指令 - 呆板执⾏」变为「⾃然交流 - 主动理解 - 确认执⾏」;
  2. 在感知上,从单模态⽂本拓展到语音、视觉、环境声音的全模态融合;
  3. 在架构上,从存在信息损失的级联系统演进为端到端的统⼀模型。

RoboOmni 所代表的不仅是技术突破,更是交互范式的⾰新。当机器⼈能够理解 「⾔外之意」,能够「察⾔观⾊」,⼈与机器的关系将从单向命令变为双向协作。它让技术隐于⽆形,智能融于⾃然,最终实现让技术适应⼈、⽽⾮让⼈适应技术的终极⽬标。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
马继华为何敢接连挑衅樊振东?三大理由+一个“大后台”

马继华为何敢接连挑衅樊振东?三大理由+一个“大后台”

陈锌特色美食
2026-03-25 16:33:02
他是国军陆军总司令,手下走出8名元帅7大将,死后两岸共同哀悼

他是国军陆军总司令,手下走出8名元帅7大将,死后两岸共同哀悼

史之铭
2026-03-26 17:20:17
CCTV5直播!国足热身“世界杯新贵”,15.9万人小国,邵佳一首秀

CCTV5直播!国足热身“世界杯新贵”,15.9万人小国,邵佳一首秀

汪星人哟
2026-03-26 19:13:15
韩媒臆想:中国队欢呼吧,国际足联同意他们替补世界杯

韩媒臆想:中国队欢呼吧,国际足联同意他们替补世界杯

体坛风之子
2026-03-26 07:00:06
特朗普官宣最新登岛计划?精锐部队派兵被曝,美真实意图藏不住了

特朗普官宣最新登岛计划?精锐部队派兵被曝,美真实意图藏不住了

荐史
2026-03-26 19:15:24
RMC:塞内加尔仍将在对秘鲁的友谊赛赛前展示非洲杯冠军奖杯

RMC:塞内加尔仍将在对秘鲁的友谊赛赛前展示非洲杯冠军奖杯

懂球帝
2026-03-26 18:37:06
地铁出口A、B、C、D藏着方向规律,记住这套方法 全国出行不绕远路

地铁出口A、B、C、D藏着方向规律,记住这套方法 全国出行不绕远路

水泥土的搞笑
2026-03-17 13:38:42
“老人味”的祸首被揪出!医生提醒:55岁后要少碰,老了或也没味

“老人味”的祸首被揪出!医生提醒:55岁后要少碰,老了或也没味

今日养生之道
2026-03-23 11:46:39
中东突发!刚刚,直线拉升

中东突发!刚刚,直线拉升

中国基金报
2026-03-26 12:35:21
3月26日俄乌:乌克兰的猛烈回击

3月26日俄乌:乌克兰的猛烈回击

山河路口
2026-03-26 17:32:00
你知道我在床上有多厉害吗?

你知道我在床上有多厉害吗?

果粉之家
2026-03-20 12:35:16
中原消费金融为催收“买”借款人手机号码 三大运营商均中标 或涉买卖个人信息惹争议

中原消费金融为催收“买”借款人手机号码 三大运营商均中标 或涉买卖个人信息惹争议

信网
2026-03-26 19:12:37
油车车主“真情流露”:就算油价8块8,我也不想买电车!

油车车主“真情流露”:就算油价8块8,我也不想买电车!

少数派报告Report
2026-03-25 09:51:04
镇江一男子,被要挟曝光“不雅视频”!

镇江一男子,被要挟曝光“不雅视频”!

知扬中
2026-03-26 17:46:49
油价调整消息:今天3月26日,全国加油站调整后92、95汽油新售价

油价调整消息:今天3月26日,全国加油站调整后92、95汽油新售价

沙雕小琳琳
2026-03-26 10:31:28
登顶Top.1,HBO韩剧又爆了

登顶Top.1,HBO韩剧又爆了

来看美剧
2026-03-26 18:22:47
微信出现这条杠,你已经不是对方好友了

微信出现这条杠,你已经不是对方好友了

王二哥老搞笑
2026-03-21 07:36:51
苹果受追捧,国产手机涨价基本失败了,正在悄悄降价

苹果受追捧,国产手机涨价基本失败了,正在悄悄降价

柏铭锐谈
2026-03-24 15:38:55
A股:大盘精准跌到3889.08点,不出意外的话,接下来行情这么走!

A股:大盘精准跌到3889.08点,不出意外的话,接下来行情这么走!

夜深爱杂谈
2026-03-26 20:11:02
和讯投顾陆润凯:预期落地,明天的应对来了

和讯投顾陆润凯:预期落地,明天的应对来了

和讯网
2026-03-26 18:05:07
2026-03-26 21:04:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12608文章数 142594关注度
往期回顾 全部

科技要闻

Meta高管狂分百亿期权,700名员工却下岗

头条要闻

张雪峰留巨额遗产:二婚妻子或拿50% 剩下的女儿占1/3

头条要闻

张雪峰留巨额遗产:二婚妻子或拿50% 剩下的女儿占1/3

体育要闻

申京努力了,然而杜兰特啊

娱乐要闻

刘晓庆妹妹发声!称姐姐受身边人挑拨

财经要闻

油价"驯服"特朗普?一到100美元就TACO

汽车要闻

一汽奥迪A6L e-tron开启预售 CLTC最大续航815km

态度原创

家居
时尚
本地
教育
军事航空

家居要闻

傍海而居 静观蝴蝶海

上新|| 她们说,找到了自己的人生裙子!

本地新闻

救命,这只酱板鸭已经在我手机复仇了一万遍

教育要闻

来上课了——高考阅读难题大综合(细节+主旨+含义)(下)第1段

军事要闻

担心特朗普突然停战 以总理下令48小时尽力摧毁伊设施

无障碍浏览 进入关怀版