我原来在海军航空兵战机机械和质控等岗位干了十年,各种莫名其妙的故障都见过,也参与了大小几百起故障的研究和排除。
小米SU7事故本质上就是一个事故,但是事故并不一定是故障引起的。
我是蔚来车主,24年8月份驾驶蔚来在西北旅游,夜间开启智能驾驶,车辆忽然向邻道大车靠拢,紧急接管,十秒钟逃出生天,老婆孩子都在车上,吓出一身冷汗。
我自己事后反复分析,应该是在这个高速路段出现了双白线,地上同时出现了新旧白线,车辆只能识别白线,无法判断哪个是有效的,为了在领航阶段下保持车道居中,所以出现了方向摆动。
我当时和蔚来出现了较大的争议,事情最后不了了之,这是我的诉求和疑问:
蔚来别觉得自己冤枉,蔚来的领航状态及车道居中非常依赖车道线,是不是?在路上开车,两车道变三车道的时候,你们的车会不会往中间钻,有没有测试过?高速路段有车道线的跳跃、缺失,你们怎么处理?城区道路的车道线更是复杂,有的就看不见了,有的打成一团了,有的交叉了,你们怎么处理?
我们现在看小米事故:
根据小米公开的车辆信息,事发前车辆处于NOA智能辅助驾驶状态,以116km/h时速持续行驶。22时44分24秒(夜间),车辆发出风险提示“请注意前方有障碍”并请求减速;1秒钟后(紧急接手),作为司机的罗某接管车辆,踩下刹车,向左打方向盘22.0625度;在接下来的1—3秒之间,车辆撞上了水泥护栏。碰撞前,系统最后可以确认的时速约为97km/h。车辆随后开始燃烧。
作为从智驾智障中死里逃生的一个车主以及前飞机机械师,我个人的一个判断:除非经过专业培训,普通人无法在极短时间内逃避本次事故,无非是不同处置下的后果不一样罢了。
1、智能驾驶是一个统称,有不同的等级,核心差异在于对系统责任和适用场景的界定。
L2:辅助驾驶。
L3(有条件自动驾驶):系统在特定条件下全权控制,但需驾驶员响应接管请求。
L4(高度自动驾驶):限定区域内完全自主,责任归属厂商(如小鹏XNGP)。
L5(完全自动驾驶):目前处于研发阶段。
L3以下(含L3):驾驶员始终为最终责任人。但是在L3存在接管悖论,系统请求接管时,人类可能因分心无法及时反应。
L4及以上:厂商承担主要责任(限定场景内)。
当前绝大多数商用车都是L2,问题是绝大多数车企过分宣传了自己的智能驾驶,甚至存在有意误导。如图是一个视频的截图,全车的人都在睡觉,注意司机的姿势,如果出现类似小米SU7事故,绝对来不及任何有效操作。
2、海恩法则
海恩法则是德国飞机涡轮机发明者帕布斯·海恩提出的航空安全法则,核心观点是:每一起严重事故背后,必然有29次轻微事故、300起未遂先兆和1000起事故隐患。其精髓在于强调事故是量的积累结果,即使技术再完美、规章再完善,也无法替代人的素质和责任心。
3、墨菲定律
墨菲定律常被表述为:“任何可能出错的事情最终都会出错”,其内涵强调事故的必然性,即只要存在风险,即使概率极低,事故也迟早会发生。
对于事故管控来说,三分技术,七分管理,这里的七分就是人的作用,不能说发生了事故就认为技术不行,我们可以看看具体的指标比较:
如果是人在开车,百万公里的事故是多少次数,严重事故的占比是多少。
如果是智能驾驶,百万公里的事故是多少次数,严重事故的占比是多少。
如果人机共驾,百万公里的事故是多少次数,严重事故的占比是多少。
4、责任划分
事故的发生是多因素共同造成的,比如我死里逃生的那次,就是因为夜间+道路标线不规范,这次小米SU7事故,同样是夜间+路况复杂。
如果一切正常,就不会有事故,但是真实的世界,一定会出现“不正常”因素,而系统在设计和训练的时候只能做优化,不可能做到完美应对一切意外,否则意外就不再是意外了。
现在的中国新能源汽车技术进步非常快,但是心态非常浮躁,出事故也是预期之内的,当然也可以说我是在装。
前面说了我用蔚来智能驾驶的案例是为了提醒大家,道路上面总是会出现各种汽车厂家想不到的意外因素,大家注意安全,并不是抹黑蔚来,这里说明一下还是挺喜欢蔚来的,原因有两个:
第一、蔚来的车用料扎实,最坏情况下安全系数较高。
第二、蔚来的产品设计、宣传以及智能驾驶的应用方面,我能感觉到对安全边际要求比较高。
如果再买车,我大概率还是会选择蔚来。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.