DM-EXton2的力/触觉反馈功能让机器人在遥操作过程中也拥有"手感"。该系统可将接触力、挤压等信息实时反馈给操作者,使其在进行易碎物夹取、精密插拔、柔性抓取等精细任务时,更容易把握力度边界,从而提升操作成功率与高质量数据采集效率。即便在机器人或遥操员视觉被遮挡、视线受限的情况下,操作者也能借助力反馈对物体的软硬、接触状态进行判断,辅助完成更准确、更稳定的抓取与放置。这一功能的价值不仅在于提升操作体验与成功率,更在于它能够支撑机器人采集到包含细腻力控与触觉信息的多模态数据。这些数据是训练机器人形成“物理直觉”——即对物体属性(软硬、脆韧、滑涩)和交互动力学产生内在理解的关键素材。
就像石油是工业时代的命脉,数据正在成为AI时代具身智能爆发的核心燃料。借鉴自动驾驶从数据匮乏到规模化落地的演进路径,2026年,随着算法突破、算力突围、硬件成熟之后,数据,这个曾被低估的世界级难题,如今已成为决定机器人企业竞争力的关键变量。
从2024年Pi0模型的1万小时真机数据,到2025年Gen-0模型使用的27万小时UMI数据,业内人士普遍预计,2026年的头部算法公司的训练数据规模必然会突破百万小时。随着需求的快速增长,具身智能数据领域的市场需求必然爆发,机器人行业即将迎来一场围绕数据采集、生成与应用的竞速。
![]()
▍为什么高质量人形数据是具身智能的命门?
在ChatGPT掀起的AI浪潮中,大语言模型凭借互联网海量文本数据实现了能力涌现。但对于要在物理世界中摸爬滚打的具身智能机器人而言,数据获取之路却异常艰难,因为没有现成的互联网级数据池,每一条有效数据都需要通过真实交互或仿真模拟量身定制。具身智能持续进化的四大关键因子——算法、算力、机器人硬件、数据,其中,数据是目前唯一尚未突破的世界级难题,其价值远超单纯的训练素材。
而在数据采集的过程中,由于大多数据采集的最终目的,都是让人形机器人做出更高质量的动作,从而落地场景,因此大多具身数据采集开始逐渐优先选择人形形态的数据采集系统,原因就是其形态、操作逻辑与人类场景高度适配,能更好解决数据真实感、通用性、泛化性三大核心诉求,完美匹配具身智能适应人类环境、完成人类任务的终极目标。
![]()
此外,当前具身智能行业已形成明确共识:人形机器人有望成为未来主流落地形态。基于人形机器人实现的数据集,无疑更容易契合行业标准与发展趋势,数据价值长期保值。从长期价值来看,基于人形机器人采集的数据,随着人形机器人产业化落地,其采集的数据可直接用于量产机型的模型迭代,形成数据采集-模型优化-产品落地-更多数据采集的正向循环。
▍具身智能数据采集企业有哪些?
(1)星海图数据采集系统
星海图构建了一套从物理硬件到数据采集,再到数据管理、标注与处理的完整闭环平台(EDP)。其核心逻辑是通过标准化的机器人本体在真实世界中执行任务,系统性地采集高质量、多模态数据,并利用完备的工具链进行管理、标注,最终用于模型训练与迭代。数据采集系统以R1 Lite通用双臂移动操作平台与R1 Pro高性能仿人机器人作为标准化的数据采集本体,用于复杂任务的数据采集与验证,确保采集的数据在格式、传感器模态和操作尺度上的一致性,为后续的大规模处理奠定基础。
星海图8月开源的开放世界数据集(Galaxea Open-World Dataset)就是基于EDP平台而来,在发布后两个月内下载量达40万次,成为全球下载量最高的具身智能真机数据集之一。该数据集覆盖50多个真实场景,累计时长500小时,规模超10TB。
![]()
(2)乐聚数据采集系统
乐聚人形机器人训练场核心模块分为训练层、持久存储层、数据层和设备层四个核心模块,在训练层中,系统利用算力GPU资源,通过Torch cuda进行高效计算。在采集本体方面,乐聚支持两种异构机器人形态,分别为KUAVO 4pro全尺寸人形机器人和KUAVO LB轮臂式人形机器人。这两种机器人形态可覆盖多个场景,且支持多机器人平台协同作业。同时,机器人配备夹爪或多指灵巧手,以满足模仿学习、多任务策略训练等研究需求。
此外,乐聚数据采集系统,涵盖数据生产、模型训练、仿真测试与真机部署全流程工具链,配套数据工具包与示例代码,模型具备更高的任务成功率、更全面的环境感知,能为力控策略优化、触觉-视觉融合模型提供优质数据支撑,适配不同材质、形态物体的复杂操作场景,能更好帮助开发者构建物理交互闭环,提升机器人操作稳定性,促进模型泛化能力。目前,乐聚已在全国建立6大训练场,年产2000万条高质量真机数据。同时携手开放原子开源基金会建立乐聚OpenLET社区,基于该数采系统构建的LET数据集开源了超60,000分钟真机数据以及800条灵巧操作数据集。
![]()
(3)鹿明机器人数据采集系统
鹿明机器人FastUMI Pro多模态无本体数据采集软硬件系统,在精度、适应性、效率、成本与生态五大维度均表现卓越,成为推动具身智能规模化的关键基础设施。与传统遥操作采集方式相比,鹿明首创了“为模型成功率负责”的系统工程范式,从硬件设计源头保障数据质量。鹿明推出的量产级产品FastUMI Pro,集成了为UMI场景定制的高性能传感器,能稳定实现60Hz高频记录,确保多模态信息的毫秒级同步。配合鹿明独创的8道工业级数据质量评估体系,使数据有效率从行业普遍的70%提升至95%以上,真正支撑起机器人策略模型的稳定训练与迭代。FastUMI Pro通过创新的硬件架构与软件算法,将单条数据采集时间从50秒缩短至10秒,效率提升5倍,同时将综合成本降至传统方法的五分之一。更重要的是,该系统实现了数据与机器人本体的解耦,可快速适配市场上数十种不同的机械臂和夹爪,有效打破了数据孤岛,构建起从硬件、数据到模型的全栈能力闭环。
目前,鹿明机器人正在加速数据采集产能的建设,预期2026年实现超过100万小时的UMI数据采集产能。1月7日,鹿明机器人正式推出“鹿明FastUMI Pro智研加速计划”。在学术领域,设立论文奖励基金,全球研究者使用FastUMI Pro设备产出的学术论文,发表后将获得3万至5万元人民币(4000-7000美元)的奖励。在产业领域,鹿明赞助ICRA WBCD 2026双臂机器人挑战赛,走向全球顶级竞技场,参与制定未来标准。
![]()
(4)零次方数据采集系统
针对具身智能训练中普遍存在的"数据模态缺失"问题,零次方机器人在Zerith-H1设计阶段即整合了各种模态传感器,可实现对二维视觉信息、立体空间信息、关节信息、力反馈信息的"完整"模态信息采集。零次方的全模态数据架构很明显具备双重核心优势。1.维度兼容性:其采集的高维度“全模态”数据可轻松降维,生成任意子模态数据集(例如剥离力触觉数据得到纯视觉-关节数据),无缝兼容现有所有主流算法框架的训练需求。2.价值持续性:采集方案通过预处理工具,对齐多模态数据流,确保当前采集的数据能够持续服务于未来3-5年可能涌现的新一代具身智能模型,成为支撑长期算法进化的“高维数据基座”。
另外,零次方的"全模态"数据采集人形机器人Zerith-H1,完美考虑了这种零次方的全模态数据架构设计,实现了全模态数据采集与落地。Zerith-H1的上肢结构、自由度设计全部参照人类的身体,并在此基础上大幅增加关节的活动范围,使其具备超越男性的活动操作空间。在模型训练过程中,零次方机器人数据采集中心深度集成AI训练工具Swanlab,实现对模型训练的全过程记录、实时监控、数据可视化和批量实验分析,帮助用户科学调参、管理历史实验数据,高效迭代自己的具身智能模型。
![]()
(5)戴盟机器人含力/触反馈遥操作数采系统
CES2026上,戴盟机器人发布全球首款力/触觉反馈遥操作数据采集系统DM-EXton2。戴盟机器人致力于构建面向具身智能的灵巧操作基础设施,通过“3D”战略——即Device(视触觉硬件设备)、Data(多模态交互数据)、Deployment(场景化部署)——打造从感知到执行的完整闭环,以DaaS(Data as a Service)和VTLA(Vision-Tactile-Language-Action)模型驱动灵巧技能的规模化交付,让机器人真正具备可泛化的物理世界操作能力。
![]()
(6)帕西尼数据采集系统
在 CES 2026 上,帕西尼重点展示了其全模态具身智能数据采集系统,以及由多维触觉传感器、六维力传感器、DexH13 灵巧手、TORA-ONE 与 TORA-DOUBLE ONE 人形机器人构成的全栈产品矩阵。这一系列成果不仅实现了从核心感知器件到整机形态的物理跨越,更打通了从硬件执行终端向高价值数据资产的技术延伸。
2025 年 6 月,帕西尼于天津落成了全球规模领先的具身智能数据采集与模型训练基地 Super EID Factory。该基地基于以人为中心的“人因”数据采集范式,构建起一支专业化数据采集师团队。在涵盖工厂操作、家政服务等 15+N 类核心场景中,采集师通过高频次任务模拟,精准捕捉包含多维触觉、多视角视觉、自体感知及空间轨迹在内的全模态数据。依托全球领先的具身智能数据工厂 ,其内部署了 150 个标准化采集单元,均集成自研的尖端采集设备与系统,实现了数据捕捉的高度精准化与流程标准化。凭借这一创新的生产范式,Super EID Factory 具备年产近 2 亿条高质量、全模态、高可用性数据的生产能力,成功构建了亿级全模态数据集 OmniSharing DB。
项目投用半年以来,已支撑机器人完成电子制造、康养、零售等领域上万种精细操作。通过将这些全模态数据转化为标准化数据教材并面向全球合作伙伴开放共享,帕西尼不仅从根本上破解了具身智能领域数据质量与生产效率的双重困境,更以坚实的亿级数据基座,为全球具身智能产业的泛化发展提供核心驱动力。
![]()
(7)越疆数据采集系统
越疆的数据采集系统基于ATOM-M多形态机器人形成了一个基于庞大实际应用、反哺产品智能化的强化闭环,通过一站式具身数据工具链以及配套的软件平台,旨在降低从真实场景采集数据到训练、部署模型的全流程门槛,其中包含沉浸式VR数据采集套件以提升效率。利用动态跟踪算法,有效抑制超调和振荡,提高位置跟踪响应,结合5G超低时延通信,可确保主从机器人跟踪延时<10ms。不仅如此,越疆的X-Trainer训练平台,更是一款突破性的集成系统,创新性地将模仿学习神经网络、工业级高精度机械臂与高性能力反馈主手融为一体,通过人类操作者的直观遥操作示范,为机器人的技能学习带来了前所未有的灵活性与精确度,将新场景、新任务的训练周期大幅缩短了70%,显著降至约2小时。
![]()
X-Trainer的核心价值还在于其构建了一个高效、精准且开放的研究闭环。它首先通过“高效学习”机制,基于模仿学习让机器人能够快速复现并掌握人类的复杂操作技能;“精准操作”则依托工业级机械臂与高保真主手,确保了从演示到执行的每一个动作都具备绝对的可重复性与准确性;最终,其极速部署能力与开放研究特性,使其成为AI大模型数据采集、AGI(通用人工智能)场景模拟与研究的理想物理世界交互平台。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.