你打开叫车软件,一辆白色捷豹I-PACE缓缓停在路边。但如果你是骑自行车的人,看到的可能是另一幅画面:这台车正横在自行车道中央,后门打开,乘客即将下车。
这不是假设。在旧金山和奥斯汀,Waymo的自动驾驶车辆正在反复上演这一幕。
![]()
正方:机器比人更安全的叙事
自动驾驶公司花了十年时间说服公众一个核心命题:机器驾驶比人类更安全。
这个逻辑表面上无懈可击。人类司机分心、路怒、疲劳驾驶,情绪起伏不定。自动驾驶车辆则像瑞士钟表一样精确——遵守限速、红灯停绿灯行、从不酒驾。
Waymo的安全报告里堆满了数据:数百万英里测试里程、零致命事故、比人类司机更低的碰撞率。这套叙事已经深入人心,甚至成为行业默认的公关话术。
旧金山自行车联盟执行主任克里斯托弗·怀特承认这一点:「人们总是指出,与人类驾驶的汽车不同,自动驾驶车辆会停在红灯前,遵守限速。」
但怀特紧接着抛出了一个被刻意忽略的问题:「然而,它们实际上只取决于编程的好坏、有效性和安全性。」
这里的裂缝开始显现。安全不是一个单维度指标,而是一组需要被明确定义的目标函数。如果编程优先级里,「乘客上下车便利性」排在「自行车道合规」前面,机器就会精准地、一致地、毫无愧疚地违规。
而且它会重复这个错误,永不疲倦,永不改进——直到有人重写代码。
反方:自行车道里的系统性失察
让我们看看实际发生了什么。
两个月前,一位Reddit用户上传照片:他的Waymo直挺挺停在旧金山某自行车道正中央。几个月前,另一位骑行者在奥斯汀拍到类似画面——Waymo停在路肩自行车道上接客,车身一半侵入机动车道。
这些不是孤例。Streetsblog的跟踪报道显示,Waymo车辆「经常」驶入城市自行车道进行上下客操作,社交媒体上的记录已经形成模式。
去年六月,事态升级。湾区自行车法律组织(Bay Area Bicycle Law)对Waymo及其母公司Alphabet提起诉讼。诉状描述了一个噩梦场景:两辆Waymo同时侵入同一条自行车道,导致骑行者詹妮弗·汉克被撞。
据诉讼文件,汉克在专用自行车道骑行时,一辆Waymo挡住去路,乘客开门下车(即「开门杀」),将她撞倒。她随后被抛向另一辆Waymo——那辆车就停在自行车道远端。
两辆自动驾驶车辆,同一时空,同一种违规方式,叠加成一次人身伤害事故。
怀特透露了一个更具争议的细节:Waymo曾向街道安全倡导者表示,让车辆具备自行车道感知能力是「太高的门槛」,因为「客户期望在那里下车」。
Waymo对此拒绝置评。考虑到该公司在有利于其安全记录的话题上向来反应迅速,这种沉默本身即是表态。
核心矛盾:谁的安全优先?
这场争论的本质,是两种「安全」定义权的争夺。
自动驾驶公司统计的安全,是宏观层面的碰撞率、死亡率、责任事故数。他们的数据集里,自行车道违规可能只是一个未被单独分类的「停靠事件」,只要不引发碰撞,就不会进入负面指标。
但骑行者体验的安全,是微观层面的路权完整性。每一次车辆侵入自行车道,都是一次潜在威胁的具象化——无论当时是否发生事故。
Waymo的编程逻辑暴露了优先级排序:乘客体验 > 自行车道合规。这不是技术无能,是商业选择。让车辆寻找合法停靠点会增加接客时间,降低服务流畅度,在竞争激烈的出行市场里,这是可量化的成本。
问题在于,这个成本被转嫁给了骑行者。
更深层的问题是反馈机制的缺失。人类司机违规后可能收到罚单、保险上涨、社会压力,这些反馈会塑造行为。自动驾驶车辆的「行为」由代码固化,除非工程师主动调整,否则它会日复一日地重复同一套违规操作,且规模不受司机数量限制。
一辆Waymo每天违规十次,一千辆就是一万次。这种系统性、规模化的路权侵蚀,是人类驾驶时代从未出现过的变量。
行业镜鉴:监管滞后于部署
旧金山已经成为自动驾驶路测的前沿战场。Waymo和Cruise(已暂停运营)在这里积累了最多的真实道路数据,也制造了最多的争议事件。
但监管框架明显滞后。自行车道违规的法律责任如何认定?是车辆制造商、运营平台,还是乘客?现行交通法规并未为自动驾驶场景预留清晰答案。
诉讼可能是倒逼改变的唯一路径。湾区自行车法律组织的案件将测试法院如何界定自动驾驶车辆的「注意义务」——这个原本针对人类司机的法律概念,在算法决策时代需要重新解释。
怀特的批评指向一个更根本的设计哲学问题:「Waymos经常驶入自行车道接送乘客,这既不合法也不安全,但公司说这是正常做法,是客户的期望。」
当「客户期望」与「公共安全」冲突时,自动驾驶系统的默认选择是什么?这个问题的答案,决定了这项技术是城市交通的解药,还是新矛盾的源头。
判断:安全叙事需要重新校准
Waymo的自行车道问题不是一个技术bug,而是一个产品定义问题。
这家公司有能力让车辆识别自行车道——它的感知系统能区分行人、 cyclist、施工锥桶,不可能看不到地面标线。真正的障碍是商业决策:是否愿意为自行车道合规牺牲部分用户体验。
目前的答案是「不」。而沉默,是这种答案的默认表达方式。
对于科技从业者,这个案例提供了一个警示模板。当我们谈论「AI安全」时,往往默认指的是对抗攻击、数据偏见、系统鲁棒性等技术维度。但Waymo的困境显示,安全同样取决于产品团队的价值排序——哪些场景被定义为「必须处理」,哪些被标记为「可接受风险」。
这些决策通常不会出现在技术白皮书里,却决定了技术如何在真实世界中运作。
自动驾驶的安全神话需要一次校准。机器确实比人类更一致,但一致性本身不是美德——如果它一致地选择便利而非合规,规模化的精准反而会成为规模化的伤害。
下一次当你听到「自动驾驶比人类更安全」时,值得追问一句:对谁更安全,在什么条件下,以什么为代价。
毕竟,代码不会自己感到愧疚。感到愧疚的,应该是写代码的人——如果他们还记得怎么写邮件回复的话。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.