具身智能周报 W15 · 2026年4月10日—4月17日
报告周期:2026-04-10 ~ 2026-04-17
生成时间:2026-04-17
数据来源:ArXiv (cs.RO · cs.CV · cs.LG) · GitHub Trending · 行业媒体
一周导读 本周 Top 5 必读
类型
标题
亮点
1
论文
UMI-3D(2604.14089)
从视觉受限到3D空间感知的通用操控接口扩展
2
论文
HEX(2604.07993)
跨本体全身操控的人形对齐专家策略
3
论文
Touch Dreaming(2604.13015)
触觉+梦想学习通用人形操控
4
论文
Sumo(2604.08508)
动态通用全身运动操控
5
开源
Genesis(★28.5k)
本周持续活跃,新增AMD GPU修复
核心趋势(5大方向)
人形机器人VLA化加速:HEX、Touch Dreaming、Sumo三箭齐发,全身+灵巧手操控成为主流
Sim-to-Real再度升温:AffordSim、SIM1、MolmoB0T等从仿真数据规模化和零样本迁移切入
VLA效率优化成焦点:DA-PTQ后训练量化、STRONG-VLA鲁棒解耦、StarVLA-α降复杂度
触觉感知突破:Touch Dreaming将触觉信号与视觉梦境结合,OmniUMI推进物理grounding
世界模型+RL融合:WOMBET、ViVa、AIM等将世界模型作为RL的价值函数或经验迁移载体
⚠️ 开放问题
VLA在边缘设备上的推理效率(DA-PTQ仅是开始)
人形机器人零样本迁移的成功率瓶颈(目前多在75-80%)
触觉传感器数据的大规模采集与Sim-to-Real对齐
具身LLM的安全对齐问题(HazardArena、BenchMark新出炉)
跨本体(cross-embodiment)学习的数据异构性挑战
数据总览 ArXiv 论文统计(4/10-4/16)
方向
本周论文数
代表性工作
具身感知与场景理解
~18
RobotPan, HiVLA, ESCAPE, OVAL
具身决策与规划
~22
Goal2Skill, RoboAgent, DeCoNav, Ro-SLM
具身控制与操作
~28
Touch Dreaming, FastGrasp, XRZero-G0, Sumo, HEX
具身强化学习与世界模型
~20
WOMBET, ViVa, AIM, WM-DAgger
具身智能体与大模型
~25
DA-PTQ, StarVLA-α, STRONG-VLA, HiVLA
仿真、数据与平台
~15
AffordSim, SIM1, ComSim, Compressor-VLA
人机交互与具身社会智能
~12
Adaptor, M2HRI, Designing for Error Recovery
合计(cs.RO)
~140
GitHub 仓库追踪
项目
Stars
本周类型
更新亮点
Genesis-Embodied-AI/Genesis
★28,513
经典更新
AMD GPU浮点bug修复、约束求解器优化
huggingface/lerobot
★23,291
经典更新
Jupyter notebook快速入门、guard pattern重构
isaac-sim/IsaacLab
★6,946
经典更新
本周持续活跃
Glicher147/DiffusionVLA
★2
近期更新
基于扩散策略的Franka机器人VLA
lauraghcd/eai2-site
★0
本周新建
EAI²人形机器人/VLA资讯网站
ArXiv 论文精选 方向1:具身感知与场景理解 UMI-3D: Extending Universal Manipulation Interface from Vision-Limited to 3D Spatial Perception
英文标题:UMI-3D: Extending Universal Manipulation Interface from Vision-Limited to 3D Spatial Perception
链接:https://arxiv.org/abs/2604.14089
作者:Ziming Wang et al.
提交日期:2026-04-16
核心贡献:
将UMI(Universal Manipulation Interface)从2D视觉受限设置扩展到完整的3D空间感知。现有UMI系统依赖单一侧面相机视角,对遮挡和深度估计有限制。本文提出3D空间感知扩展,通过引入多视角或深度传感器融合,实现更鲁棒的抓取和操控决策,在复杂场景中的抓取成功率显著提升。
方向标签:具身感知 3D感知 通用操控接口
RobotPan: A 360° Surround-View Robotic Vision System for Embodied Perception
英文标题:RobotPan: A 360° Surround-View Robotic Vision System for Embodied Perception
链接:https://arxiv.org/abs/2604.13476
作者:Jiahao Ma et al.
提交日期:2026-04-16
核心贡献:
提出360°全景机器人视觉系统RobotPan,解决传统机器人视觉系统视角受限的问题。通过多相机环绕布置与实时拼接融合,实现无盲区感知能力。系统专为具身感知任务设计,支持导航、操控和人机交互等多种场景的全景视觉输入。
方向标签:具身感知 全景视觉 多相机融合
HiVLA: A Visual-Grounded-Centric Hierarchical Embodied Manipulation System
英文标题:HiVLA: A Visual-Grounded-Centric Hierarchical Embodied Manipulation System
链接:https://arxiv.org/abs/2604.14125
作者:Tianshuo Yang, Jiangmiao Pang, Yao Mu et al.
提交日期:2026-04-16
核心贡献:
提出以视觉为中心的分层具身操控系统HiVLA。采用分层架构:高层由视觉语言模型进行任务理解和子目标规划,低层由视觉运动策略执行具体动作。通过视觉grounding确保规划与执行的一致性,在需要精确空间理解的操控任务中表现优异。
方向标签:具身感知 分层规划 视觉语言导航 VLA
ESCAPE: Episodic Spatial Memory and Adaptive Execution Policy for Long-Horizon Mobile Manipulation
英文标题:ESCAPE: Episodic Spatial Memory and Adaptive Execution Policy for Long-Horizon Mobile Manipulation
链接:https://arxiv.org/abs/2604.13633
作者:Jingjing Qian et al.
提交日期:2026-04-16
核心贡献:
针对长视野移动操控任务,提出情节空间记忆(Episodic Spatial Memory)与自适应执行策略。系统通过维护环境的空间记忆,在长序列任务中实现跨房间/跨场景的物体定位和任务执行,自适应策略可根据执行反馈动态调整动作计划。
方向标签:具身感知 空间记忆 长视野规划 移动操控
方向2:具身决策与规划 Goal2Skill: Long-Horizon Manipulation with Adaptive Planning and Reflection
英文标题:Goal2Skill: Long-Horizon Manipulation with Adaptive Planning and Reflection
链接:https://arxiv.org/abs/2604.13942
作者:Zhen Liu et al.
提交日期:2026-04-16
核心贡献:
解决长视野机器人操控任务中的规划与执行难题。Goal2Skill提出"自适应规划+反思"框架:高层目标通过大模型分解为可执行技能序列,底层通过技能库检索和在线优化完成具体动作,并在执行过程中引入反思机制(Reflection)检测失败并重新规划。在多步骤厨房操控任务中验证了有效性。
方向标签:具身决策 长视野规划 LLM规划 技能学习
EmbodiedClaw: Conversational Workflow Execution for Embodied AI Development
英文标题:EmbodiedClaw: Conversational Workflow Execution for Embodied AI Development
链接:https://arxiv.org/abs/2604.13800
作者:Xueyang Zhou et al.
提交日期:2026-04-16
核心贡献:
面向具身AI开发者的对话式工作流执行系统EmbodiedClaw。研究者可通过自然语言指令管理复杂的数据采集、训练、评测和部署流程,系统将对话指令转化为具体操作并执行。支持多轮迭代式开发,显著提升具身AI实验的开发效率。
方向标签:具身决策 对话式开发 工作流自动化 工具LLM
RoboAgent: Chaining Basic Capabilities for Embodied Task Planning
英文标题:RoboAgent: Chaining Basic Capabilities for Embodied Task Planning
链接:https://arxiv.org/abs/2604.07731
作者:Peiran Xu, Jiaqi Zheng, Yadong Mu
提交日期:2026-04-10
核心贡献:
将基础能力链式组合用于具身任务规划。不同于端到端学习方法,RoboAgent将复杂任务拆解为可复用基础技能的动态组合,通过技能链(Skill Chaining)实现零样本泛化到新任务。在Robobench等基准上展现了优于端到端方法的泛化能力。
方向标签:具身决策 技能链 零样本泛化 任务规划
方向3:具身控制与操作 Touch Dreaming: Learning Versatile Humanoid Manipulation with Touch
英文标题:Learning Versatile Humanoid Manipulation with Touch Dreaming
链接:https://arxiv.org/abs/2604.13015
作者:Yaru Niu, Ding Zhao et al.(CMU, 字节等)
提交日期:2026-04-14
核心贡献:
本周最具影响力的人形操控论文之一。将触觉感知与"梦境"(Dreaming)机制结合,学习通用人形操控策略。触觉信号用于精细力控,"梦境"机制通过想象式探索扩展数据分布,在仅依赖触觉和本体感知的情况下实现多任务泛化,涵盖抓取、装配、柔性物体操控等任务。
方向标签:具身控制 人形机器人 触觉感知 泛化学习
HEX: Humanoid-Aligned Experts for Cross-Embodiment Whole-Body Manipulation
英文标题:HEX: Humanoid-Aligned Experts for Cross-Embodiment Whole-Body Manipulation
链接:https://arxiv.org/abs/2604.07993
作者:Shuanghao Bai, Lei Sun, Shanghang Zhang et al.
提交日期:2026-04-10
核心贡献:
本周人形机器人领域另一重磅工作。提出跨本体(cross-embodiment)全身操控框架HEX,核心思想是"人形对齐专家"——从多来源的操控数据(包括非人形机器人数据)中提取可迁移的技能知识,通过人形形态对齐(Humanoid Alignment)模块统一映射到人形机器人全身控制。在Unitree H1和Skill D机器人上验证,覆盖站立搬运、双臂协同等任务。
方向标签:具身控制 人形机器人 跨本体学习 全身控制
Sumo: Dynamic and Generalizable Whole-Body Loco-Manipulation
英文标题:Sumo: Dynamic and Generalizable Whole-Body Loco-Manipulation
链接:https://arxiv.org/abs/2604.08508
作者:John Z. Zhang, Zachary Manchester, Simon Le Cléac'h et al.
提交日期:2026-04-10
核心贡献:
提出动态通用全身运动-操控框架Sumo,解决传统方法在动态运动与精确操控之间的权衡问题。通过将全身运动视为连续的优化问题,在保持动态平衡的同时完成物体操作任务(如移动中抓取、移动中放置)。支持多种运动模式的平滑切换,泛化到未见过的物体和场景。
方向标签:具身控制 全身运动 人形机器人 动态操控
XRZero-G0: Pushing the Frontier of Dexterous Robotic Manipulation
英文标题:XRZero-G0: Pushing the Frontier of Dexterous Robotic Manipulation
链接:https://arxiv.org/abs/2604.13001
作者:Junming Wang, Ziwei Liu et al.(大量作者)
提交日期:2026-04-14
核心贡献:
推进灵巧机器人操控的前沿边界。XRZero-G0提出新型模仿学习框架,结合视觉提示和强化学习微调,在多指灵巧手上实现高难度操作(如精细装配、工具使用、柔软物体操控)。无需大量人类示范数据,通过自监督和课程学习实现技能习得。
方向标签:具身控制 灵巧手 模仿学习 强化学习微调
FastGrasp: Learning-based Whole-body Control for Fast Dexterous Grasping with Mobile Manipulators
英文标题:FastGrasp: Learning-based Whole-body Control method for Fast Dexterous Grasping with Mobile Manipulators
链接:https://arxiv.org/abs/2604.12879
作者:Heng Tao, Yiming Zhong, Zemin Yang, Yuexin Ma
提交日期:2026-04-14
核心贡献:
面向移动机械臂的快速灵巧抓取学习方法。传统抓取规划速度慢,本文通过学习式全身控制实现快速(毫秒级)灵巧抓取决策,支持移动基座+多自由度机械臂的协同控制。在仿真和真实Franka机器人上验证了Sim-to-Real迁移能力。
方向标签:具身控制 灵巧抓取 移动机械臂 Sim-to-Real
方向4:具身强化学习与世界模型 WOMBET: World Model-based Experience Transfer for Robust and Sample-efficient Reinforcement Learning
英文标题:WOMBET: World Model-based Experience Transfer for Robust and Sample-efficient Reinforcement Learning
链接:https://arxiv.org/abs/2604.08958
作者:Mintae Kim, Koushil Sreenath
提交日期:2026-04-13
核心贡献:
将世界模型作为跨任务经验迁移的载体,显著提升强化学习的样本效率。WOMBET在潜在世界模型中生成多样化的虚拟经验,用于训练RL策略,从而减少对真实环境交互的需求。在多种机器人操控任务上验证,样本效率提升10倍以上,同时保持策略的鲁棒性。
方向标签:强化学习 世界模型 样本效率 经验迁移
ViVa: A Video-Generative Value Model for Robot Reinforcement Learning
英文标题:ViVa: A Video-Generative Value Model for Robot Reinforcement Learning
链接:https://arxiv.org/abs/2604.08168
作者:Jindi Lv, Hao Li et al.
提交日期:2026-04-10
核心贡献:
利用视频生成模型作为RL的价值函数(Value Model)。ViVa通过预测未来视频帧的"价值"来估计状态的好坏,将视频生成能力转化为强化学习的奖励信号。无需显式奖励工程,在复杂操控和导航任务中展现出超越传统价值函数的能力。
方向标签:强化学习 视频生成 世界模型 价值函数
AIM: Intent-Aware Unified World Action Modeling with Spatial Value Maps
英文标题:AIM: Intent-Aware Unified world action Modeling with Spatial Value Maps
链接:https://arxiv.org/abs/2604.11135
作者:Liaoyuan Fan, Chen Cao et al.
提交日期:2026-04-13
核心贡献:
提出意图感知统一世界动作建模框架AIM,通过空间价值图(Spatial Value Maps)融合意图理解与动作规划。世界模型学习环境动态和空间价值分布,支持多任务规划和实时重规划。在机器人导航和操控任务中验证了意图理解对策略执行的提升作用。
方向标签:强化学习 世界模型 意图理解 空间价值图
方向5:具身智能体与大模型 DA-PTQ: Drift-Aware Post-Training Quantization for Efficient Vision-Language-Action Models
英文标题:DA-PTQ: Drift-Aware Post-Training Quantization for Efficient Vision-Language-Action Models
链接:https://arxiv.org/abs/2604.11572
作者:Siyuan Xu, Tianshi Wang, Lei Zhu, Heng Tao Shen
提交日期:2026-04-13
核心贡献:
本周VLA效率优化代表作。针对VLA模型部署到边缘设备(机器人端)的挑战,提出漂移感知后训练量化(DA-PTQ)。传统量化会导致VLA输出动作的"漂移"(drift),本文通过感知动作漂移的量化策略,在INT8量化下保持VLA操控精度,将推理速度提升2-3倍,内存占用减少4倍。
方向标签:VLA 模型压缩 量化 边缘部署
StarVLA-α: Reducing Complexity in Vision-Language-Action Systems
英文标题:StarVLA-α: Reducing Complexity in Vision-Language-Action Systems
链接:https://arxiv.org/abs/2604.11757
作者:Jinhui Ye, Ning Gao, Shu Liu, Jiaya Jia
提交日期:2026-04-14
核心贡献:
针对VLA系统的计算复杂度问题,提出StarVLA-α(α=轻量化)。通过架构层面的复杂度削减(减少视觉token数量、简化动作解码器),在保持任务性能的前提下显著降低计算量和推理延迟。实测在多种操控任务中,推理速度提升的同时操控精度损失<3%。
方向标签:VLA 轻量化 推理效率 架构优化
STRONG-VLA: Decoupled Robustness Learning for Vision-Language-Action Models
英文标题:STRONG-VLA: Decoupled Robustness Learning for Vision-Language-Action Models under Multimodal Perturbations
链接:https://arxiv.org/abs/2604.10055
作者:Yuhan Xie, Yaochu Jin et al.
提交日期:2026-04-14
核心贡献:
关注VLA在多模态扰动(图像噪声、传感器延迟、指令歧义)下的鲁棒性问题。STRONG-VLA将鲁棒性学习解耦为视觉、语言和动作三个分支独立优化,减少模态间的干扰。在模拟多种现实扰动(光照变化、运动模糊、通信延迟)下,相比基线方法成功率提升显著。
方向标签:VLA 鲁棒性 多模态扰动 解耦学习
方向6:仿真、数据与平台 AffordSim: A Scalable Data Generator and Benchmark for Affordance-Aware Robotic Manipulation
英文标题:AffordSim: A Scalable Data Generator and Benchmark for Affordance-Aware Robotic Manipulation
链接:https://arxiv.org/abs/2604.11674
作者:Mingyang Li, Haofan Xu, Jiangmiao Pang et al.
提交日期:2026-04-13
核心贡献:
基于NVIDIA Isaac Sim构建的可扩展可供性感知操控数据生成器和基准。AffordSim生成大量多样化操控场景数据,标注物体可供性(affordance),用于训练可供性感知策略。在真实机器人上零样本迁移验证,在标准可供性检测和操控任务上显著超越数据驱动基线。
方向标签:仿真平台 可供性学习 数据生成 Isaac Sim
SIM1: Physics-Aligned Simulator as Zero-Shot Data Scaler in Deformable Worlds
英文标题:SIM1: Physics-Aligned Simulator as Zero-Shot Data Scaler in Deformable Worlds
链接:https://arxiv.org/abs/2604.08544
作者:Yunsong Zhou, Hangxu Liu, Jiangmiao Pang et al.
提交日期:2026-04-10
核心贡献:
本周仿真领域代表作。针对软体/可变形物体的仿真难题,提出物理对齐仿真器SIM1作为零样本数据规模化工具。通过在仿真中生成大量软体操控数据(布料到零件装配),无需真实数据即可训练泛化策略。在布娃娃操控和柔性零件装配中实现零样本Sim-to-Real迁移。
方向标签:仿真平台 软体仿真 零样本迁移 数据规模化
ComSim: Building Scalable Real-World Robot Data Generation via Compositional Simulation
英文标题:ComSim: Building Scalable Real-World Robot Data Generation via Compositional Simulation
链接:https://arxiv.org/abs/2604.11386
作者:Yiran Qin, Jiahua Ma, Yilun Du, Ruimao Zhang et al.
提交日期:2026-04-14
核心贡献:
提出组合式仿真框架ComSim,通过组合不同场景要素(物体、背景、光照、纹理)实现可扩展的真实感机器人数据生成。相比单场景仿真,ComSim通过组合爆炸式生成多样化数据,显著提升数据效率和策略泛化能力。
方向标签:仿真平台 数据生成 组合式仿真 泛化
方向7:人机交互与具身社会智能 Adaptor: Advancing Assistive Teleoperation with Few-Shot Learning and Cross-Operator Generalization
英文标题:Adaptor: Advancing Assistive Teleoperation with Few-Shot Learning and Cross-Operator Generalization
链接:https://arxiv.org/abs/2604.09462
作者:Yu Liu, Yihang Yin, Xuan Song et al.
提交日期:2026-04-13
核心贡献:
面向辅助遥操作的人机交互系统Adaptor,通过少样本学习和跨操作员泛化降低辅助机器人的部署门槛。系统从少量示范中快速学习新任务,并能在不同操作员之间迁移,减少每次部署的个性化调参成本。在康复辅助和日常助手机器人上验证有效性。
方向标签:人机交互 遥操作 少样本学习 辅助机器人
M2HRI: An LLM-Driven Multimodal Multi-Agent Framework for Personalized Human-Robot Interaction
英文标题:M2HRI: An LLM-Driven Multimodal Multi-Agent Framework for Personalized Human-Robot Interaction
链接:https://arxiv.org/abs/2604.11981
作者:Shaid Hasan, Tariq Iqbal et al.
提交日期:2026-04-15
核心贡献:
基于大模型的多模态多智能体个性化人机交互框架M2HRI。不同功能模块(视觉、语言、情感识别)由独立LLM智能体驱动,通过协作实现个性化交互体验。系统可根据用户偏好动态调整交互策略,在社交导航和协作任务中展现自然的人机协作能力。
方向标签:人机交互 多智能体 大模型 个性化
GitHub 开源项目 本周新建仓库 EAI² — Embodied AI Intelligence 网站
仓库:lauraghcd/eai2-site
简介:EAI² — 人形机器人、VLA模型与Physical Intelligence的资讯导航网站
语言:—
Stars:★ 0(本周新建)
类型: 本周新建
所属方向:综合导航/资讯
DiffusionVLA: 基于扩散策略的Franka机器人VLA
仓库:Glicher147/DiffusionVLA
简介:利用自然语言命令和图像数据控制Franka机械臂进行物体抓取放置,基于扩散策略模型
语言:Python
Stars:★ 2
类型: 近期活跃更新(2026-04-16)
更新亮点:本周有新的commits推送
所属方向:方向3 — 具身控制与操作
经典仓库重点更新 Genesis — 生成式具身AI仿真框架
仓库:Genesis-Embodied-AI/Genesis
简介:A generative world for general-purpose robotics & embodied AI learning
语言:Python
Stars:★ 28,513
类型: 经典持续更新
本周更新(4/10-4/16):
2026-04-16:破坏性变更——根据浮点精度设置约束求解器默认容差
2026-04-16:修复安全GJK后备方案性能问题(又回退了之前修复)
2026-04-15:修复AMD GPU浮点取模运算bug
2026-04-15:统一分解式和单体求解器路径的线搜索细化
所属方向:方向6 — 仿真、数据与平台
LeRobot — Hugging Face机器人学习框架
仓库:huggingface/lerobot
简介: LeRobot: Making AI for Robotics more accessible with end-to-end learning
语言:Python
Stars:★ 23,291
类型: 经典持续更新
本周更新(4/10-4/16):
2026-04-16:新增Jupyter notebook快速入门指南(可直接复制粘贴命令)
2026-04-15:更新doc-builder和贡献文档
2026-04-14:强制使用guard pattern导入模式
2026-04-14:修复KeyboardInterrupt导致的帧损坏问题
所属方向:方向5 — 具身智能体与大模型
IsaacLab — NVIDIA官方机器人学习框架
仓库:isaac-sim/IsaacLab
简介:Unified framework for robot learning built on NVIDIA Isaac Sim
语言:Python/C++
Stars:★ 6,946
类型: 经典持续活跃
本周活跃:本周有多次commits提交,保持高频更新
所属方向:方向6 — 仿真、数据与平台
核心洞察 趋势1:人形机器人操控进入"触觉+全身"时代
Touch Dreaming(触觉+梦想)、HEX(跨本体对齐)、Sumo(动态全身运动)三篇论文代表了人形机器人操控的新方向——从单臂固定基座操控,向全身运动+触觉感知+灵巧手组合迁移。值得关注的是这些方法都在追求泛化能力(versatile/generalizable),而非针对单一任务的专用设计。
趋势2:Sim-to-Real进入"零样本"竞争阶段
AffordSim、SIM1、MolmoB0T等多篇论文明确打出"零样本迁移"(zero-shot transfer)的标签,背后是仿真器物理精度和数据规模化的成熟。但零样本成功率仍停留在75-80%,说明真实物理差距仍是最大瓶颈。
趋势3:VLA效率优化成为工程化主战场
DA-PTQ(量化)、StarVLA-α(降复杂度)、SmoothVLA(物理约束对齐)三路并进——这标志着VLA从"能不能work"进入"能不能deploy"的工程化阶段。边缘推理(edge inference)将是决定VLA商业落地的关键瓶颈。
趋势4:世界模型从"生成"转向"决策"
WOMBET、ViVa、AIM的工作表明,世界模型的价值不再仅是视频生成或反事实推理,而是作为RL的样本生成器(合成经验)和价值函数(决策引导)。这种"世界模型+强化学习"的闭环是通往通用机器人的重要路径。
趋势5:具身安全和对齐成为新研究方向
HazardArena(VLA安全评估)、EmbodiedGovBench(具身Agent治理与安全)、State Backdoor(VLA后门攻击)等论文的出现,标志具身AI安全研究正从"下游关注"上升为"核心研究问题"。随着VLA部署规模扩大,安全风险将成监管焦点。
行业大事记 CEAI 2026 第三届中国具身智能大会
时间:2026年4月10日—12日
地点:安徽合肥
主题:"智驱万物·具汇江淮"
规模:1500余名院士专家、行业领军企业与科研机构代表
主办:中国人工智能学会(CAAI)、CAAI具身智能专委会、安徽大学
下周关注
CEAI 2026论文集发布:关注大会接收论文中是否有令人形机器人圈眼前一亮的新工作
Genesis v0.3发布预期:随着物理引擎优化推进,新版本可能带来更快的仿真速度
VLA边缘部署进展:关注DA-PTQ等量化方法在真实机器人硬件上的实测对比
G1机器人开源生态:Unitree G1持续受到社区关注,可能有新的操控策略库发布
具身安全基准完善:HazardArena和EmbodiedGovBench的后续跟进和社区复现
本报告由 AI Agent 自动采集 ArXiv (cs.RO · cs.CV · cs.LG) 和 GitHub Trending 数据生成,核心内容经过筛选与结构化整理。
报告周期:2026-04-10 ~ 2026-04-17 | Vol. 2026-W15
Mbot具身智能实验室
让尖端科技触手可及,人人皆可探索未来
![]()
Mbot基础交流群等你加入,下方扫码联系
具身-杰西
Mbot具身-小助手
Mbot-视频号
Mbot-公众号
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.