2026北京车展上,最热闹的当然还是新车——大六座、猎装车、方盒子、增程、插混、纯电、快充、智驾,几乎每一个展台都能找到足够多的产品卖点。
但如果把这些热闹往后拨一层,会发现这届车展还有一条更隐蔽、也更值得关注的线索:
汽车行业,正在集体把“AI Agent”请进车里。
换句话说,智能座舱的关键词正在变。
![]()
过去几年,车企讲智能座舱,核心是屏幕、芯片、语音、生态——屏幕越做越大,数量越堆越多;语音助手从“一问一答”进化到连续对话;高通8295、8155这样的座舱芯片成为卖点;音乐、视频、导航、小游戏被不断塞进车机里面。
但到了2026北京车展,一个新的问题浮出来了:如果车机只是更会聊天、更像手机,它还不够聪明。
真正的下一步,是它能不能理解你的目标,替你拆解任务,调用车辆和外部服务,把事情办完。
这就是“智能体上车”的意义。
![]()
从“全民养虾”说起:为什么说 AI Agent 比大模型更适合上车?
过去一段时间,AI圈里有个挺有意思的现象,叫“养虾”。
OpenClaw、Hermes Agent、Claude Code这类产品突然被很多人讨论。
![]()
它们和传统聊天机器人不太一样。普通大模型更多是你问一句、它答一句;而这些Agent工具更像一个可以被训练出来的数字助手:它能读文件、调用工具、整理资料、写代码、执行流程、记住偏好,甚至在边界允许的情况下主动推进任务。
这也是为什么很多AI博主会反复强调“约束先行”“规范先行”。
以卡兹克(一位长期观察AI Agent和智能体工作流的内容创作者)的说法,Agent不是简单靠一句Prompt就能变强,关键是要给它建立规则、工具、记忆和反馈。你不是在跟一个聊天框许愿,而是在养一个能长期工作的数字分身。
![]()
这件事放在电脑上,表现为AI帮你写代码、整理知识库、查资料、改文档。
放在汽车里,就变成一个更有想象力的问题:
如果一个AI助手能住进车里,它会怎样改变智能座舱?
汽车其实比电脑更适合智能体。
因为车不只是一个屏幕。
![]()
它有传感器,能知道车外环境和车内乘员状态;
它有执行器,能控制空调、座椅、车窗、灯光、导航和辅助驾驶;
它有固定场景,通勤、接娃、出差、补能、长途自驾、露营,都高度重复;
它还有天然的时间、位置、路线、电量、车况、乘员信息。
也就是说,汽车不是一个单纯的信息终端,而是一个能感知物理世界、也能影响物理世界的移动空间。
这正是AI Agent最需要的土壤。
![]()
地平线 KaKaClaw:北京车展上的“龙虾时刻”
如果说“全民养虾”让普通人第一次感受到AI Agent能干活,那么2026北京车展则让汽车行业集中展示了另一件事:
Agent正在从个人电脑走向汽车座舱。
最直接的案例,是地平线的KaKaClaw咖咖虾。
4月22日,北京车展前夕,地平线发布了整车智能体操作系统KaKaClaw咖咖虾。
![]()
它当然有星空舱驾融合芯片作为底层支撑,但芯片参数不是重点,真正值得关注的是,KaKaClaw想把车机从一个“听指令的系统”,变成一个“会组织任务的智能体”。
过去车机语音助手的典型逻辑,是用户说一句,系统做一步。
你说“导航回家”,它打开导航;
你说“打开空调”,它调整温度;
你说“播放音乐”,它切到音乐App。
每个功能都能用,但它们彼此之间是割裂的。
KaKaClaw要解决的,正是这种割裂。
![]()
按照地平线的定义,KaKaClaw是整车智能体操作系统,核心交互范式是“任务即服务”。
用户不需要把需求拆成一条条车控指令,而是可以用自然语言直接表达目标,系统再去调度智舱、智驾、车控、地图和不同技能。
比如,用户说“我今天有点累,帮我舒服点回家”,传统车机可能很难判断该做什么;
而一个车载智能体需要理解这句话背后的真实意图:它可能意味着更稳妥的驾驶策略、更安静的音乐、更柔和的空调、更少打扰的路线提醒,以及必要时推荐最近的休息点。
这就是从“执行命令”到“理解任务”的差别。
KaKaClaw还强调三个能力:有性格、记性好、会得多。
![]()
“有性格”,指的是它支持多维度人格设定,可以在“实干派”“知心友人”“全能派”等不同人设之间切换,也支持方言和不同语气。表面看这是陪伴感,背后其实是车企在尝试让座舱AI从工具变成长期相处的对象。
“记性好”,指的是长时序记忆系统。它会持续学习用户习惯,逐渐知道你常走哪条路、喜欢什么温度、什么时间更愿意听播客、孩子上车时通常需要什么内容。智能座舱要想真正主动服务,记忆是前提。没有记忆,就只能每次重新认识你。
“会得多”,则对应技能体系。KaKaClaw不仅内置多种场景技能,用户还可以零代码创建自己的专属技能,官方和用户也可以发布、分享技能,系统根据场景自动激活合适的技能组合。
这和“养虾”的逻辑非常接近。
OpenClaw、Claude Code之所以让人觉得有用,不只是模型更聪明,而是它能接入工具、遵守规则、调用技能,并在长期使用中形成更顺手的工作流。
KaKaClaw把类似的思路搬进车里:车不再只是提供一个语音入口,而是拥有一套围绕出行场景运行的技能系统。
![]()
当然,车和电脑不同。车载智能体一旦接入车控和智驾,就必须有更强的安全边界。
因此KaKaClaw也强调Skill生态运行在独立安全沙箱中,权限调用需要经过策略审核,隐私路由管控对外通道,避免云端模型、车辆控制和第三方API之间出现越权交互。
这其实说明,车载智能体不是简单把大模型塞进车机,也不是让车机“更会聊天”。
它更像是把一个有记忆、有技能、有权限边界的AI助手,嵌入整车操作系统里。
如果说过去车机像一个装在车里的平板,那么KaKaClaw想表达的是,未来车机会更像一个整车级的AI管家。
![]()
不只是地平线,供应链已经开始卷“会干活的车机”
地平线不是孤例。
本届北京车展上,商汤绝影也发布了面向“舱驾一体全场景智能体”的智能座舱与智能驾驶产品体系。
![]()
它对原有New Member智能座舱产品进行了升级,推出New Member 2.0。
![]()
核心表达很直白:从“会聊天”到“能干活”。
这句话很关键。
过去很多智能座舱已经能聊天,能讲笑话,能回答百科问题,甚至能做情绪陪伴。
但用户真正需要的往往不是一个车内聊天对象,而是一个能在具体场景里解决问题的助手。
比如出行前,它能根据历史偏好、实时路况和目的地信息规划个性化行程;车上多人同时说话,它能识别不同乘员的需求;车辆、家庭、办公设备之间,它能完成多端协同任务。
为了支撑这种能力,商汤绝影推出了Sage Box千机智盒,采用“Sage端侧大模型+Sage OS千机系统+New Member原生智能体”的三层架构。
![]()
它强调端侧部署,试图解决车载AI的两个现实问题:响应速度和云端成本。
公开信息显示,Sage Box希望实现0.5秒级响应,并通过端侧计算降低Token成本,单车日均可节省30元云端费用,万车年省超亿元。
这说明车载智能体不是一个只靠概念就能跑起来的东西。它必须面对延迟、成本、车规安全、隐私保护和量产适配。
![]()
火山引擎的路线则更像互联网大厂把C端AI助手能力带进汽车。
北京车展首日,火山引擎发布基于Agentic AI架构的新一代汽车AI解决方案,包含AI座舱套件方案和豆包座舱助手方案。
![]()
它提出一个统一的“汽车大脑”,把对话推理引擎、目标驱动引擎、学习成长引擎融入同一套架构。
对话推理解决自然交流,目标驱动负责自主调用车载工具,学习成长则在任务执行中沉淀经验,形成可复用的Skill。
一个很典型的场景是后排孩子上车。
过去车机最多根据语音指令播放儿歌或动画片;而Agentic AI想做的是,根据孩子状态和车端记忆,自主选择唱歌、放动画、讲故事、做游戏、哄睡等方式,陪伴孩子整个旅途。
![]()
这就是从“响应指令”到“完成目标”的变化。
更重要的是,火山引擎已经有规模化基础。
公开数据显示,搭载豆包大模型的智能汽车已超过700万辆,覆盖超过50个汽车品牌、145款车型,日均完成超过3000万次座舱交互和服务闭环。
这意味着,AI座舱并不只是发布会上的Demo。
它已经是一个高频入口,只是下一步要从“用起来”变成“办成事”。
![]()
而腾讯给出的答案又不一样——拼的不只是模型,而是生态。
北京车展前夕,腾讯智慧出行发布了“出行全场景智能体开放平台”,并展示了7个座舱智能体。这里最值得看的,不是腾讯又做了多少个AI功能,而是它如何把汽车和真实生活服务重新编排。
![]()
比如“随行点单智能体”。
用户在通勤路上想买咖啡或餐食,系统可以结合用户偏好、实时行程和车辆ETA,筛选合适门店,并反向推算出餐时间。理想状态下,用户开到门店时,餐品刚好做好,还能关联车牌送到车边。领券、下单、支付、取餐都被整合进一条链路。
![]()
这听起来并不是科幻,但它恰恰说明了智能体的价值。
单独看,导航、点餐、支付、优惠券、车牌识别都不是新东西。但过去这些能力分散在不同App、不同设备、不同流程里。智能体要做的,是把它们组织成一个围绕用户目标运转的服务闭环。
腾讯的优势也在这里。它有微信、微信支付、腾讯地图、内容生态和小程序能力。很多公司能做一个聪明的车内助手,但未必能把任务真正执行下去。智能体越往后走,越考验生态调用能力。
这也是为什么智能座舱的竞争正在从“单点能力”转向“系统组织能力”。
过去车企比谁屏幕多、谁语音准、谁芯片强;接下来要比的是:谁能把车控、导航、智驾、内容、支付、生活服务、用户记忆和安全边界组织成一个真正可用的智能中枢。
![]()
中国智能体正在倒逼全球车企重写座舱逻辑
智能体上车并不是自主品牌和中国科技公司的自嗨。本届北京车展前夕,大众汽车集团发布了“全域智能体AI(Agentic AI for All)”路线图。
![]()
按照大众的规划,今年下半年起,所有基于CEA架构打造的车型都将应用车载AI智能体,并采用本地训练的大语言模型作为自然语言交互接口。
与传统被动响应指令的语音助手不同,大众强调车载AI智能体能够主动理解用户需求,通过自然对话完成跨车身操作系统的复杂操作,并根据不同场景作出决策。同时,该系统将完全在车端运行,以保证个人隐私信息不离开车辆。
到2027年,大众计划通过CEA 2.0架构,基于更强的中央计算平台打造“驾舱一体”的统一体验,并让服务“AI驾驶”和“AI舱内及云端服务”的多个车载AI智能体协同运行。
![]()
宝马也在北京车展上展示了类似方向。
宝马基于阿里AI能力定制的座舱智能体首发亮相,以千问大模型为底座,基于斑马智能元神AI,推出“用车专家”“出行伙伴”“百科达人”三个专为中国市场定制的AI智能体。BMW iX3长轴距版将成为首款搭载车型,全新BMW 7系也将随后跟进。
![]()
其中“出行伙伴”的例子很典型。用户可以说:“帮我找3公里内的商场,配备逸安启充电桩,最好有评分高、环境好的餐厅,午餐后前往大兴机场赶下午4点的航班。”智能体需要拆解出距离、充电、餐饮、评分、环境、航班时间和路线规划等多重意图,再一次性输出方案。
这已经不是传统车机语音能够轻松完成的任务。它要求系统理解复杂目标,并调用地图、POI、充电、餐饮、导航等多种能力。
换句话说,中国市场对智能座舱的要求,正在倒逼跨国车企接受Agentic AI的产品范式。
![]()
华为、中科创达、高通,把智能体推向底层
如果说地平线、商汤、火山、腾讯、大众、宝马更多展示的是产品体验和生态能力,那么华为、中科创达、高通、英伟达等玩家,则把车载智能体继续往底层推。
华为乾崑在车展前夕发布ADS 5和鸿蒙座舱HarmonySpace 6。
![]()
ADS 5基于WEWA 2.0架构,引入云端Multi-Agent仿真、在线强化学习和车端安全风险场。
鸿蒙座舱HarmonySpace 6则升级MoLA 2.0架构,System Agent升级为千亿级端到端大模型,并支持A2A跨域调用。
![]()
全新一代小艺智能体被定义为全场景聊天型AI助理,能够穿透导航、控车、闲聊等不同场景,完成复杂意图理解和执行。
![]()
![]()
启境GT7作为华为乾崑与广汽合作的高端智能新能源车型,也首发搭载新一代鸿蒙座舱,小艺智能体可以通过语音完成百科查询、新闻播报、控车、影音娱乐、模糊地点搜索、车机在线点餐等操作。
这背后其实有一个重要变化:智能体不只是一个浮在车机桌面上的应用,它正在进入座舱操作系统和整车智能架构。
![]()
![]()
中科创达发布的AquaClaw就更直接。
4月26日,中科创达宣布推出AquaClaw,这是一个基于NVIDIA NemoClaw参考软件栈的车载AI智能体操作系统。它被定义为车载多智能体AI系统的核心运行底座,支持实时交互,也支持跨多次驾驶保持连贯的“状态化智能体”。
![]()
从公开信息看,AquaClaw采用“端侧AI+云端协同+安全可控”架构,贯穿底层操作系统、AI运行时和场景适配。
中科创达提供定制化Base OS、本体知识库和智能汽车技能库;NVIDIA则提供Agent Toolkit、NemoClaw、OpenShell沙盒、Nemotron模型、TensorRT Edge-LLM推理框架以及DRIVE AGX车端计算平台。
![]()
高通生态里也出现了更明确的“龙虾上车”。
北京车展现场,斑马智能展示了基于骁龙8295的AutoClaw智舱协作服务方案,支持主动交互、端到端语音、自主确认、搜索、外呼和链接不同Skill。
![]()
![]()
中科创达的滴水AIOS 2.1也基于OpenClaw架构搭建AquaClaw汽车智能体技术底座,试图让智能座舱从“被动响应执行”走向“主动全域智能”。
![]()
所以,龙虾与汽车的相遇并不是个意外——它不是把一个网络热词硬塞进汽车里面,而是同一种技术范式正在从个人生产力工具扩散到车载操作系统。
电脑上的Agent帮你整理文件、写代码、查资料;车里的Agent则要帮你规划路线、管理座舱、调用服务、协调智驾,甚至在你开口之前提前准备。
顶尖AI人才为什么开始流向汽车?
除了产品和技术,人才流动也在说明问题。
北京车展期间,元戎启行首次设立“首席科学家”一职,由前DeepSeek多模态核心成员阮翀出任。
![]()
![]()
公开报道显示,阮翀曾深度参与DeepSeek多模态与大模型相关研发,加入元戎后首次公开亮相,分享了元戎40B参数VLA基座模型。
这个案例很值得我们关注,它说明汽车行业争夺的人才结构正在变化。
![]()
过去自动驾驶企业最需要的是感知、规控、仿真、地图等方向的工程人才;现在,具备多模态、大模型、VLA、Agent研发经验的人,正在成为新的关键资源。
元戎启行的技术路线也很能说明这种变化。
按照阮翀的介绍,过去自动驾驶研发往往依赖多个小模型,各自解决不同问题;现在行业开始向统一基座模型收敛。元戎的40B参数VLA基座模型,可以分化为驾驶模型、分析模型和评估模型:驾驶模型像AI司机,负责开车;分析模型像AI分析员,解释为什么这么开;评估模型像AI教练,判断开得好不好。
![]()
这套架构让研发闭环效率明显提升。公开信息显示,元戎单次模型迭代周期从100多个小时缩短到10多个小时,研发提效约10倍;数据闭环也从约5天缩短到约12小时。
更有意思的是,阮翀在谈“物理AI”时提到,物理AI最重要的是闭环。狭义上,它要有现实载体,比如车或机械手;广义上,AI Coding也有类似逻辑,因为代码写完后编译器会给出反馈,告诉你对不对,AI再据此调整。
![]()
![]()
![]()
这句话把“Claude Code”和“自动驾驶”之间的底层逻辑连上了。
无论是电脑里的Agent,还是汽车里的智能体,真正让它成长的都不是单次问答,而是任务、工具、反馈和迭代。区别只在于,代码世界的反馈来自编译器和测试,汽车世界的反馈来自道路、乘员、车辆状态和真实物理环境。
这也是为什么汽车会成为AI人才的新战场。
![]()
当通用大模型的边际收益逐渐递减,物理世界的复杂性、数据闭环和商业落地,反而变成了更有吸引力的方向。汽车是目前最成熟的大规模物理AI载体之一:它有海量数据,有真实用户,有明确安全边界,也有足够大的商业市场。
龙虾上车,用户最终会感受到什么?
说到底,用户并不关心一辆车到底用了多少个Agent,也不关心系统底层叫KaKaClaw、AquaClaw,还是别的什么名字。
用户关心的是:
车能不能更懂我?
能不能少让我操作?
能不能在我需要之前先准备好?
![]()
车载智能体真正落到体验上,大概会有三层变化。
第一层,是听懂话。
这不只是识别普通话,而是能理解自然表达、方言、多轮对话、多人指令和模糊需求。你不用再记固定口令,不用说“打开空调,温度调到24度,打开座椅加热,导航回家”,而是像跟人说话一样表达:“有点冷,回家吧,路上找个不堵的路线。”
第二层,是办成事。
它不只回答你附近有什么餐厅,而是能结合路线、电量、停车、排队、支付和时间,把整个任务闭环。你说“下午四点赶飞机,路上找个能充电、能吃饭、别绕太远的地方”,系统就要自动拆成行程规划、充电筛选、餐厅推荐、时间控制和导航执行。
第三层,是提前准备。
这才是智能体和语音助手真正拉开差距的地方。
比如它知道你最近经常加班,晚上上车时自动调暗屏幕、打开座椅加热、推荐更安静的音乐;它识别到孩子上车,自动切换儿童内容、锁定后排车窗、调整空调风量;它发现你明天一早有航班,而车辆电量不足,就提前提醒你是否顺路补能;长途驾驶时,如果舱内摄像头和传感器识别到疲劳状态,它不只是提醒“请注意休息”,还可以让智驾策略更保守、调低空调温度、播放提神内容,并推荐最近服务区。
这不是车机“更会聊天”,而是车开始具备一种围绕人运转的主动服务能力。
![]()
当然,智能体上车也不能被写成一场没有阻力的技术童话。
汽车和手机、电脑不同。车载智能体控制的是真实车辆,面对的是高速移动、复杂交通和生命安全。它不能像普通聊天机器人一样随便试错,也不能因为“理解错了”就贸然执行。
所以,安全、隐私、低延迟、成本和责任边界,会成为车载智能体真正落地的五道门槛。
地平线强调Skill生态运行在独立安全沙箱,隐私路由管控所有对外通道;大众强调车载AI智能体完全在车端运行,保证用户隐私不离开车辆;华为乾崑强调确定性调度、零信任安全模型和全维冗余;中科创达和NVIDIA也把沙盒、边缘推理、安全可控作为AquaClaw的重要架构。
![]()
这些并不是发布会上的附属信息,而是车载Agent能否规模化的前提。
另一个现实问题是舱驾一体并不容易。
行业里已经讨论了很多年,但真正打通座舱和智驾,需要解决模型频率、算力分配、安全隔离、成本收益和责任划分。智驾模型需要高频推理,座舱模型则更偏语义理解和服务编排,二者强行融合可能带来算力冗余,也可能增加系统复杂度。
所以,短期内所谓“舱驾一体”,更可能先体现在体验层和任务层:座舱理解用户意图,智驾系统承担驾驶执行,二者通过安全边界和标准接口协同,而不是简单合成一个模型。
这也意味着,谁能在安全边界内把任务链路做顺,谁才真正有机会赢得用户。
![]()
写在最后:北京车展之后,车机要换一种竞争方式了
2026北京车展的智能化叙事很多。
有人看到了L3级自动驾驶的临近,有人看到了芯片算力继续上探,有人看到了大模型批量上车,也有人看到了合资品牌加速本土化反攻。
但如果从智能座舱这条线看,一个更值得记住的变化是:
汽车正在从“智能终端”走向“移动智能体”。
过去,车机的价值是把功能搬上车。导航、音乐、视频、语音、应用生态,都是在回答“车里能不能用”。
现在,车机开始回答另一个问题:它能不能像一个懂你的助手一样,把这些功能组织起来,替你完成一个真实目标。
这就是从“大模型上车”到“智能体上车”的区别。
大模型上车,让车机更会说话;智能体上车,则让车机开始学会干活。
从OpenClaw、Hermes、Claude Code带来的“全民养虾”,到地平线KaKaClaw、商汤New Member、火山豆包、腾讯出行智能体、华为小艺、中科创达AquaClaw这些北京车展案例,背后其实是同一条技术潮流:AI正在从回答问题,走向执行任务;从数字世界,走向物理世界;从桌面上的助手,走向车里的伙伴。
这对汽车行业的意义,不只是多了一个新卖点。
它意味着智能座舱的竞争方式要变了。
![]()
以后用户评价一套车机,可能不再只是“流不流畅”“屏幕大不大”“语音准不准”,而是会问:
它懂不懂我的习惯?
能不能把复杂需求一次办完?
会不会越用越懂我?能不能在安全边界内提前替我准备?
如果答案是肯定的,那么车机才真正从工具变成了助手。
而北京车展之后,这场变化已经开始了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.