春节期间安徽浓雾路段的智驾追尾事故,近日被华为高管公开回应。当系统已把车速降到60km/h保障安全,用户却手动提速至近100km/h最终撞车,这起事故戳中了智驾时代最核心的矛盾:用户到底该信任机器还是自己的判断?
![]()
智驾车探测场景 :深色智驾车在夜间发射探测光束的场景示意图
事故背后的人机信任错位
这起事故的核心并非智驾系统失效,而是人机之间的信任错位。当浓雾遮蔽了人眼的视野,用户却因为“看不到危险”反而误判路况安全,强行提升车速。这种认知偏差源于人对视觉信息的过度依赖——我们习惯了用眼睛判断距离和风险,却忽略了传感器的探测能力不受可见光限制。
更关键的是,很多用户对智驾系统的极限场景认知不足。在极端天气下,智驾系统的传感器会自动调整策略,比如毫米波雷达会强化穿透探测,激光雷达会提升点云密度,但用户往往因为看不懂系统的决策逻辑,选择“相信自己”,最终酿成事故。
![]()
靳玉志演讲 :华为高管靳玉志在发布会演讲,配事故相关文字
智驾传感器:没有“全能选手”只有“互补搭档”
要理解为什么系统的判断更可靠,得先拆解智驾的三大传感器:摄像头、毫米波雷达、激光雷达。每一种都是“偏科生”,没有谁能独当一面。
摄像头是“视觉翻译官”,能识别红绿灯、路牌等语义信息,但和人眼一样怕逆光、浓雾;毫米波雷达是“穿透侦察兵”,不受天气光线影响,能精准测距测速,但只能识别轮廓分不清细节;激光雷达是“3D建模师”,能生成高精度点云还原物体形状,但穿透力弱,浓雾里的探测距离会大幅缩短。
4D毫米波雷达的出现解决了传统雷达无法测高的问题,能区分地面减速带和天桥,但依然没法判断障碍物的具体类型。比如它能看到前方有物体,却不知道是车还是路牌。
![]()
靳玉志演讲 :华为高管靳玉志演讲,配毫米波雷达相关文字
激光雷达的点云技术就像给物体做了一次3D扫描,哪怕是手掌的纹理都能清晰呈现,但在浓雾中,激光束会被水滴散射,探测效率大打折扣。这也是为什么系统在浓雾中会主动降速——它知道自己的“眼睛”也有看不清的时候。
![]()
智驾三维点云场景 :智驾车在树林中形成三维点云的示意图
融合感知才是智驾的“安全护城河”
既然单一传感器都有短板,融合感知方案就成了当前智驾的最优解。就像一支分工明确的团队,摄像头负责识别语义,毫米波雷达负责极端天气探测,激光雷达负责高精度建模,三者数据融合后,系统就能做出更全面的判断。
当前行业有两种融合路径:一种是特斯拉的“纯视觉+算法”,靠海量数据训练摄像头的识别能力;另一种是华为、理想等的“多传感器融合”,用硬件堆叠补全短板。从事故来看,多传感器融合在极端天气下的容错率更高——哪怕激光雷达受影响,毫米波雷达依然能发挥作用。
![]()
传感器能力对比雷达图 :摄像头、毫米波、激光雷达的能力对比雷达图
给智驾用户的3条避坑指南
智驾不是“自动驾驶”,而是“辅助驾驶”,用户依然是最终责任人。针对极端天气的智驾使用,有3条可执行建议:
- 极端天气不干预速度:当系统主动降速时,不要手动提速,系统的决策是基于传感器的综合判断,比人眼更可靠;
- 定期熟悉系统极限:在安全场地测试智驾在雨雾、夜间的表现,了解系统的“能力边界”;
- 开启融合感知模式:如果车辆支持,极端天气下强制开启多传感器融合模式,不要单一依赖摄像头。
![]()
4D毫米波雷达演示 :智驾车探测树木、路锥等的示意图
#华为##传感器#
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.