![]()
“跟人怎么说,就跟司机Agent怎么说。”在2025年5月的理想AI Talk第二季活动上,理想汽车董事长兼CEO李想这样描绘VLA司机大模型带来的交互变革。如今,这一愿景已成为现实。
随着理想汽车OTA 8.0版本在9月正式推送,VLA司机大模型已向理想MEGA和理想L系列AD Max车型全量推送。经过亿欧汽车深度体验,我们发现理想的城区NOA功能已经进化,不再是简单的辅助驾驶,而是一个真正懂得理解、推理和执行的“司机大脑”。
![]()
从“哺乳动物智能”到“人类智能”的跃迁
理想汽车将其辅助驾驶发展分为三个阶段:第一阶段依赖规则算法和高精地图,类似“昆虫动物智能”;第二阶段是端到端加VLM的辅助驾驶,接近“哺乳动物智能”;第三阶段则是VLA开启的“人类智能”阶段。
VLA司机大模型代表视觉-语言-行动模型,是理想汽车第三代辅助驾驶技术的核心。李想将AI工具分为三个层级:信息工具、辅助工具和生产工具,而VLA正是让AI成为交通领域“生产工具”的关键突破。
VLA司机大模型的训练过程模拟人类学习驾驶:预训练相当于学习物理世界和交通常识;后训练类似驾校学习驾驶技能;强化训练则相当于实际道路练习,确保模型安全对齐人类价值观。
城区NOA实战表现:复杂路况应对自如
在实际城区道路体验中,VLA升级后的NOA功能展现出了令人印象深刻的应对能力。
复杂路口通过能力显著提升。系统能够在没有车道线的大路口也能自主推理并生成虚拟车道线,稳定通过。面对无保护左右转等复杂场景,车辆能识别、预测多交通参与者轨迹并进行博弈,实现安全通行。
障碍物绕行表现更加“拟人化”。VLA司机大模型让车辆具备更强的预测和规划能力,能够持续预测自车与他车的空间交互关系。在实际测试中,车辆面对施工路段可精准识别锥桶、水马等障碍物,通过减速、转向等进行合理避让或绕行。
![]()
人车交互革新:从命令执行到自然交流
自然语言交互成为现实。用户现在可以通过语音直接与“司机Agent”沟通,简单通用的短指令由端侧的VLA直接处理,复杂指令则先由云端的VL基座模型解析,再交由VLA执行。系统能够记忆用户的车内操作习惯,包括屏幕点击、环境互动等,并自动模仿执行,如自动输入常用信息等。
![]()
智能辅助驾驶的未来已来
通过此次体验,可以清晰感受到VLA司机大模型为理想汽车智能辅助驾驶带来的革命性变化。城区NOA不再仅仅是“辅助”驾驶,而是逐步进化成为可靠的“生产工具”,大幅减轻驾驶负担。
VLA司机大模型的核心突破在于其将感知、认知和决策能力融为一体。它不仅能看见道路情况,更能理解复杂交通环境,并通过思维链推理做出拟人化的决策判断。这种整合能力使得车辆在城区复杂路况下的表现更加稳定可靠。
随着9月理想汽车自动驾驶部门拆分为11个二级部门,包括专门设立VLA模型部门,公司正加速推进智能辅助驾驶技术的突破与产品落地。这一组织调整预示着理想汽车在智能化竞争中将更加专注和敏捷。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.