近日,刷到一段老款问界M8车主发的、真实行车记录仪视频,看完再次刷新了我对智驾的认知。
视频里,M8在一条没有应急车道的城市快速路,压着80km/h的最高限速走中间车道。
![]()
老款问界m8死在高速路上。路上情况良好,天气良好。
突然车机弹出语音预警:"前方有异常停车,请留意!"
同时,车辆自动打左转向灯,慢慢地平稳变道到了左侧车道。
又开了好一会儿,车主才看到——中间车道正中间,停着一辆打着双闪的故障车。
![]()
突然车机预警,前方有异常停车,车主提醒留意。
![]()
同时自动打双闪,慢慢向左侧变动。
![]()
行驶了大概200多米,发现有一辆车打着双闪,停在了马路中间。
这系统到底是多远就报警了?
我自己把视频倒回去,从系统弹出提示的那一刻开始数地面的白线。
一直数到故障车的位置,不多不少,正好16根完整的白线。
按国标GB 5768.3,快速路和高速的车道分界线都是标准"69线":实线长6米,间隔9米。
算一下就很清楚:16段实线是96米,16根线之间有15个间隔,共135米,加起来就是231米。
加上智驾系统发现了,并发出语音让人听到,这过程算它也走了10来米,那么华为的智驾系统约提前240米,发出预警!
这个距离远不远?我相信人眼应该不能这么早发现,大家同意吗?
先澄清一个最大的误区:不是896线雷达
因为看到评论区有人说:"这肯定是新款896线激光雷达吧?"
其实不是,视频里的是2025款老款问界M8,用的是上一代192线激光雷达。
更关键的是,华为896线雷达是2026年3月23日才发布的,而这段视频的拍摄时间是2月20日。
那时候896线连量产车都没有。
这说明一个最基本的事实:提前240米报警并自动变道,根本不需要什么黑科技,192线激光雷达就完全够用了。
当然,也可能不完全是激光雷达的功劳,毕竟华为智驾是融合方案,有摄像头,有激光雷达,有毫米波雷达。
896线激光雷达,号称它能在120米外看到14厘米高的障碍物,雨雾天表现更好。
但像这个视频中,200多米外识别一辆完整的车,192线雷达早就能做到。
那问题来了,纯视觉方案能做到吗?下面分析一下。
激光雷达智驾方案好,还是纯视觉智驾方案好?
这是现在吵得最热的话题。很多人说,现在摄像头都是800万像素了,怎么可能看不到200米外的车?
的确能看到,但未必有用。
因为"看到"和"看懂、测准、敢提前240米报警并自动变道",是完全不同的三件事。
纯视觉的核心问题,从来不是能不能拍到,而是下面四个:
1. 测距不准:
2D图像靠算法估距离,200米外误差能有30米以上,系统根本不知道那辆车到底在200米还是170米外,根本不敢提前变道
2. 静止车是死穴:
算法对动态车训练得多,静止车很容易被当成路牌、树荫或者背景。
特斯拉多次高速撞静止车的事故,根源就在这里。
3. 极端场景直接瞎:
逆光、强光、小雨,摄像头一过曝,200米外什么都看不见
目前唯一真纯视觉的特斯拉FSD,第三方实测对静止车的有效AEB距离也就100米左右,超过150米漏检率飙升,更别说提前240米报警并自动变道了。
那小鹏智驾VLA 2.0呢?它不是号称纯视觉吗?
这是另一个被很多人误会的地方。
小鹏是天天喊纯视觉,但现在所有卖的VLA 2.0车型,全部标配3颗4D毫米波雷达。
这和特斯拉真拆了所有雷达的纯视觉,根本不是一回事。
小鹏的路线是"视觉为主,毫米波补盲"。
如果是vla 2.0遇到这个情景,大概率也能预警。
但这不是单独摄像头能做到的,200多米外的静止车,是摄像头先看到轮廓,毫米波雷达测准距离和速度,两者融合之后才敢报警。
要是真把小鹏的毫米波雷达拆了,纯靠摄像头跑,200米外的静止车,它大概率连看都看不清。
所以小鹏智驾vla2.0,其实不是纯粹的纯视觉,他也是融合方案,这个不过比华为方案少了激光雷达。
为什么说,多传感器融合方案一定更好?
这是工程界的公理,没有任何争议:
只要融合算法做得好的前提下,摄像头+毫米波+激光雷达,一定比任何少一种的方案都安全。
道理太简单了,三个东西能力完全互补:
摄像头:看清是什么
毫米波:测准距离速度,不怕雨雾
激光雷达:直接出3D轮廓,厘米级精度
就拿M8遇到这个场景来说,这种情形太常见了,很有代表性:
纯视觉:看到了,但不敢信,不敢动
视觉+毫米波:敢报警,但偶尔会有假目标
三传感器融合:激光雷达直接给出精确的3D点云,告诉系统"这里有个车,距离231米,静止,在本车道"。系统没有任何犹豫,直接变道。
这就是本质上区别。
最后说句实在话
既然三传感器这么好,为什么小鹏不加激光雷达?真不是差那一千块钱吧?
现在一颗主流车规激光雷达也就五六百到一千块钱,对20多万的车来说根本不是事。
真正的原因是:加了反而可能融不好。
多传感器融合看着简单,其实是地狱级难度。
时间不同步、坐标系对不齐、数据格式不一样,融不好就是互相打架,没东西乱刹车,有东西看不见。
要做到华为ADS这种水平的深度融合,需要超强的先进算法、海量的数据、极强的芯片调度能力。
这些东西不是堆硬件就能堆出来的。
客观地说,目前全球量产车里,真能把这三者融到一起、越融越强的,也就华为一家。
小鹏的VLA 2.0是为纯视觉端到端架构优化的,硬加激光雷达,反而会增加延迟、拖慢速度,体验未必会更好。
它选择了"视觉+毫米波"这条路线,追求低成本和快速迭代,这是理性选择,但也确实难免人们担心的安全冗余。
因为始终避不开人们的疑惑:既然你 Vla2.0已经是这么好了,这么安全了,那再加多一个激光雷达,不是更好吗?
写这篇不是为了吹谁黑谁,就是想把不同技术路线的真实差距说清楚。
提前240米报警并自动变道,这个能力平时看着不起眼,但在没有应急车道的快速路上,真的能救命。
它不是什么黑科技,只是多传感器深度融合带来的必然结果。
我相信,未来纯视觉肯定会越来越强,因为摄像头的能力会升级,算法肯定也会进步。
或许真的有一天没有激光雷达,也能绝对解决安全问题。
但至少在现在,在安全这件事上,多一个传感器,就多一份保障。
大家觉得说的有道理吗?欢迎评论区喷喷打字评论。
#科技##智驾##上头条 聊热点#
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.