昨天晚上,一个朋友问我:如果哪天你的特斯拉自己开着开着撞死了人,你坐在副驾吃炸鸡,警察来了,抓谁?
我愣了一下。
他说答案可能是你。
因为你没及时接管方向盘。
我问她那程序员的bug呢?车企的算法缺陷呢?AI自己的判断失误呢?
她笑了一声:谁让你坐在那辆车里。
全球首例自动驾驶致死案正在加州法庭上演。一辆Uber测试车,夜间撞倒横穿马路的行人,安全员在车上刷手机。检察官说,过失杀人,你跑不掉。
但真正值得讨论的问题是——刑法上的“过失”,到底该怎么分?
传统的交通肇事,司机是全责。可现在司机变成了乘客,算法变成了司机。那算法的“注意义务”谁来履行?程序员写了十万行代码,没写“看见有人横穿马路立刻急刹”,那程序员是不是共同正犯?
有人说AI不是人,没法坐牢。有人说车企有产品责任,但那是民事赔偿,跟刑事责任两码事。还有人说车主最倒霉——合同里写了L2级辅助驾驶,你同意了,车出事,你负责。
等等。
我签合同的时候,有没有人告诉我“此车可能在夜间无法识别黑色衣服的行人”?没有。有没有人告诉我“极端天气下摄像头可能失效”?没有。有没有人告诉我“你必须像监控一样盯着路,即使系统说你可以放开双手”?没有。
这叫信息不对称。
你不是过失,你是被骗了。
有个细节特别讽刺:Uber那辆车的安全员,事发前刚刚被公司从车内调到后台,理由是“系统已经很安全了,不需要那么多人盯着”。结果呢?被调走的人活了,坐在车里的人成了被告。
所以到底谁在赌?车企赌技术成熟,程序员赌bug不触发,车主赌自己命大。行人的命,变成了这场赌局的筹码。
如果法律不重新定义“驾驶人”,那结果就是——谁坐在车里,谁活该。
你觉得公平吗?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.