![]()
北美特斯拉官方账号上周做了一件让自家法务部可能想连夜改密码的事:他们在X上转发了一段用户访谈,主角是位视力正在衰退的Cybertruck新车主,而这位车主买车的核心理由,是他的眼科医生推荐他用"完全自动驾驶"来继续开车。
这段视频来自创作者Captain Eli,受访者Ricky自述因眼疾面临失驾风险。按他的说法,眼科医生本人拥有两辆特斯拉,主动建议他购买搭载FSD(完全自动驾驶)的车型,甚至周六加班陪驾,演示了90分钟"全程不碰方向盘"的测试路线。Ricky当场下单,"就是冲着软件买的,花了不少钱"。
特斯拉北美账号转发时配了两个字:"Freedom。"
Level 2的陷阱:法律上你永远是司机
问题出在这里:特斯拉自己把FSD归类为SAE Level 2部分自动化系统。这个级别的官方定义写得明明白白——驾驶员必须全程保持注意力,对车辆负全部责任,系统"不会使车辆具备自动驾驶能力"。
换句话说,Level 2是个悖论:它要求一个"无法安全驾驶的人"去充当"必须全程安全驾驶的人"。如果Ricky的视力已经不足以让他通过普通驾照体检,那么FSD不仅不能解决问题,反而制造了更危险的幻觉——让他以为车能替他开。
![]()
这不是语义之争。美国汽车工程师学会(SAE)的自动驾驶分级从L0到L5,L2和L3之间隔着一道法律鸿沟。L3允许驾驶员在限定条件下转移注意力,出事了厂商担责;L2不行,方向盘后的那个人永远是唯一责任主体。
特斯拉在支持页面用"Supervised(受监督)"给FSD加了个括号,但营销话术中"完全自动驾驶"五个字从来没变过。现在官方账号转发视力障碍用户的"解放双手" testimonial,相当于用用户的嘴,说出了自己不敢写在说明书里的承诺。
专家也会中招:自动化自满的5秒盲区
Ricky不是孤例,但他是被官方盖章的那个。更值得警惕的是,这种"系统表现太好反而危险"的现象,连造自动驾驶车的人自己都逃不过。
Raffi Krikorian,Mozilla现任CTO,Uber自动驾驶部门前负责人,亲手搭建过无人车、培训过安全驾驶员的行业老兵,去年开着Model X用FSD时撞了。事后他复盘:系统连续几十公里的顺滑表现让他放松了警惕,而人类从"自动驾驶模式"切回"手动控制"需要5到8秒的认知重建时间——事故往往就发生在这几秒内。
这叫"自动化自满(automation complacency)",是航空和自动驾驶领域研究了几十年的老问题。飞机自动驾驶仪比FSD成熟得多,飞行员每年复训,依然会出现模式混淆。现在一个视力衰退的私人用户,被医生建议用L2系统替代自己的眼睛,这个链条里的每个环节都在放大风险。
![]()
眼科医生的处方,写在了灰色地带
回到视频里最微妙的角色:那位推荐特斯拉的眼科医生。他拥有两辆特斯拉,说明是资深用户;他周六陪驾,说明关系够近;但他开出的这张"处方",没有任何临床指南能背书。
美国眼科医学会(AAO)对低视力患者的驾驶建议清单里,包括生物望远镜、视野扩大训练、特定时段限行——唯独没有"购买某品牌驾驶辅助系统"。各州法律对视力标准的规定差异很大,但没有任何一州把L2系统列为视力豁免的合法依据。
医生的个人经验和技术乐观主义,在这里替代了循证医学。而特斯拉官方账号的转发,又把这种个体经验放大成了品牌背书。Ricky在视频里说的"医生告诉我需要这个",经过企业传播渠道的二次加工,几乎具备了准医疗建议的外观。
这让人想起2016年特斯拉第一起Autopilot致死事故后,公司声明里那句"驾驶员是车辆的控制者"——每次系统能力被高估、每次用户越界使用,最终责任都会滑向那个本应"保持警觉"的人类。
现在的问题是:当这个人类已经被医学判定为"可能不适合驾驶",谁来做那个踩刹车的人?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.