Meta把自家AR眼镜的传感器数据开放了。Project Aria不是什么消费产品,而是一套专门给研究者用的"第一视角"采集工具——眼镜上塞了摄像头、麦克风、IMU、眼动追踪和GPS,走哪录哪,全是 wearer 真实看到的世界。
数据格式叫 Ego4D,已经喂给全球几百个实验室。做视觉导航的、研究人机交互的、搞多模态大模型的,都能拿到同一套"人眼视角"的标注数据。这比让志愿者举着手机拍方便多了,也真实多了。
![]()
Meta的算盘很直接:AR要成,先得让AI理解"人怎么看世界"。现在开源硬件+开放数据集,把生态先养起来。毕竟谁掌握了第一视角的AI,谁就掌握了下一代计算平台的入口。
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.