2026年2月21日,美国佛罗里达州迈阿密联邦法院驳回了特斯拉的上诉,维持陪审团裁决:赔偿2.43亿美元。
这笔钱被精确切割成两个部分:4300万美元的补偿性赔偿,2亿美元的惩罚性赔偿。
![]()
在法律上,这是一个极具象征意义的切割。补偿性赔偿赔的是“你做错了什么”,惩罚性赔偿罚的是“你明知错了还继续做”。陪审团用2亿美元告诉特斯拉:你的问题不是技术不够好,而是明知技术有局限却还在故意鼓吹安全。
特斯拉不服,当庭表示将继续上诉。但翻案的可能性已经微乎其微。更值得追问的是另一个问题:一家以“软件公司”自居的车企,是怎么在法庭上被自己的数据出卖的?
七年诉讼,九位被告,一个“脱钩”操作
这场诉讼从2019年一直打到2026年。时间长到足以让一项技术从概念走到成熟,也长到足以让真相一层一层被剥开。
![]()
2019年4月25日晚,佛罗里达州基拉戈,38岁的驾驶员麦基开着Model S,开启了增强版辅助驾驶系统Autopilot。车速约100公里每小时。他弯腰捡滑落的手机时,车辆冲过一个停车标志,撞向路边停着的雪佛兰SUV。22岁的女孩奈贝尔站在车旁,当场死亡。她的男友安古洛重伤。
事故发生后的第一时间,特斯拉的工作不是救援,而是删除。
据法庭证据显示,碰撞发生后仅三分钟,涉事Model S自动将包含视频、CAN总线流和EDR数据在内的“碰撞快照”打包上传至特斯拉的AWS服务器。然后,它自动删除了本地副本。
注意这两个动作的时间线:上传到删除。前后不超过三分钟。
但真正致命的是第三步:后台“脱钩”。
原告方聘请的法证工程师通过技术手段从车辆的自动驾驶ECU中恢复了相关记录,确认特斯拉从一开始就拥有名为“snapshot_collision_airbag-deployment.tar”碰撞快照文件。然而,特斯拉在后台系统中将这份数据与车辆记录“脱钩”。让它在内部查询系统中显示为“不存在”。这份文件被上传了,被存储了,但被标注成谁也找不到的“幽灵文件”。
在此后的数年里,受害方和警方为获取这些数据展开了漫长的拉锯战。特斯拉多次坚称关键数据“不存在”或“已损坏”,而原告方的法证工程师最终证明了这些数据不仅存在,而且完好无损。
这才是那2亿美元惩罚性赔偿的真正来源。陪审团惩罚的不是技术故障,而是一个企业用算法对真相的“系统性谋杀”。
![]()
当数据可以被所有者一键“脱钩”,事故的真实原因就永远封存在公司的私有服务器里,成为谁也无法查阅的黑箱。过去几年里,每次特斯拉出事后都说是“车主使用不当”,逻辑看起来无懈可击。但这次陪审团看穿了:责任不是车主单方面的疏忽,而是特斯拉用技术黑箱剥夺了所有人追究真相的权利。
营销说“自动驾驶”,免责说“辅助驾驶”
除了删除数据,还有一个问题直接导致了败诉。
特斯拉长期以来处于一种“人格分裂”状态:营销时说的是“自动驾驶”,出事了就改口说是“辅助驾驶”。
![]()
原告律师把马斯克多年前的公开言论翻了出来,“Autopilot比人类驾驶安全10倍”、“两年内可在车内睡觉”。这些言论构成了陪审团判定“严重疏忽”的重要依据。
问题出在系统性误导。特斯拉的营销部门和安全部门向用户描述了两个不同的产品。前者说它能自己开,后者说必须时刻准备接管。当事故发生后,特斯拉的律师拿着免责条款站在法庭上说“我们早就告诉用户要保持警惕”。但陪审团看到的是完全不同的另一张面孔,那个在发布会上说“这车能自己开”的马斯克。
一边用“自动驾驶”的话术引诱消费者放松警惕,一边用最小的字体在法律声明里把责任推得一干二净。严格来说,这就是在法律红线边缘反复横跳。
更讽刺的是,这场判决之前,特斯拉有过一次规避巨额赔偿的机会。据报道,原告曾提出愿意以6000万美元和解,特斯拉拒绝了。傲慢的代价是,最终赔偿翻了四倍。
那2亿美元惩罚性赔偿,就是法律用最直白的方式告诉所有玩这套游戏的企业:在关乎人命的技术上,营销话术必须为安全底线让路。
数据主权、算法权力与企业的“隐形免责”
如果只是一个案子、一笔罚款,这甚至不值得写。
真正让这起判决具有里程碑意义的,是它触及了一个远比“辅助驾驶该不该叫自动驾驶”更深层的问题:当私有企业成为唯一的数据持有者时,真相就变成了私有财产。
在这起案件中,特斯拉对事故数据的控制形成了一个令人不安的闭环。车辆由特斯拉制造,数据由特斯拉的服务器存储,事故原因由特斯拉的后台数据裁定。当原告、律师、警方都无权查阅关键后台信息时,事故原因的最终解释权就落到了特斯拉一个人手里。
![]()
早在2019年事故发生的同一年,特斯拉还被曝出通过OTA远程升级的方式,在车主不知情的情况下修改了车辆的充电和续航参数。这两件事放在一起,指向同一个问题:一辆由软件定义的汽车,它的行为可以被谁在什么情况下修改?这些修改的记录由谁保存?保存的记录是否可以被独立审计?
美国国家运输安全委员会多次警告特斯拉,应限制自动驾驶系统的使用条件,确保其仅在设计的操作域内运行。但警告归警告,在没有独立监管的数据黑箱面前,这些声音只能停留在报告里。
2.43亿美元的罚单,正在告诉整个行业:当你的算法决定了方向盘的角度,你就要为每一次加速、每一次刹车、每一次识别障碍物的失败负责。用户坐在驾驶座上,但真正握着方向盘的,是你写的代码。数据是你的护城河,但不能成为你的免罪金牌。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.