宇树1月29日宣布,开源UnifoLM-VLA-0。UnifoLM-VLA-0是UnifoLM系列下面向通用人形机器人操作的视觉-语言-动作(VLA)大模型。该模型旨在突破传统VLM在物理交互中的局限,通过在机器人操作数据上的继续预训练,实现了从通用“图文理解”向具备物理常识的“具身大脑”的进化。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.