刚到美国科罗拉多州的杨女士问AI附近有没有适合走走的地方,AI推荐了一个野生动物保护区,理由是风景开阔,适合徒步。她戴着降噪耳机去了,沿途响尾蛇的警告声被隔绝在耳外,她还顺手从草丛里拔了一株植物准备带回家。事后她质问AI,AI先是道歉,然后说这和送死没有区别。这句话比任何专家警告都直白。但问题是,如果杨女士没能活着回来,这句道歉还有意义吗?
![]()
一、AI幻觉
很多人以为AI背后连着一本百科全书,问什么它查什么。其实不是。AI拿到你的问题后,会把它切成很多小块,然后根据之前读过的海量资料,一块一块地猜接下来该说什么。它不是在检索事实,是在生成听起来合理的句子。
它不是查地图后告诉你答案,而是看了很多文字资料后,凭印象拼凑出一个回答。它知道"野生动物保护区"和"徒步"经常一起出现,知道"风景开阔"是正面描述。但它不知道这个保护区里响尾蛇很多,不知道适合徒步是给有准备的人说的,更不知道一个戴降噪耳机、对当地完全陌生的人进去会面临什么。
AI行业把这种现象叫"幻觉",AI会一本正经地说瞎话,而且说得特别肯定,连它自己都不知道真假。AI说话通常都是确定的、平稳的。它不会说"我不太确定",它会说该地区风景开阔,适合徒步。这种装出来的肯定,最容易让人上当。
所以问题不是AI这次失手了,而是它这套工作方法本身就决定了它一定会时不时出错,而且出错的时候还特别有底气。越来越多人把问路、看病、打官司甚至人身安全这些大事交给AI,就是在不断重复杨女士的经历。她活下来了能上新闻,下次的人未必有这么好的运气。
二、技术依赖
杨女士戴降噪耳机这个细节,这次遇险不只是AI的问题,是一连串技术依赖叠加出来的结果。
![]()
降噪耳机让她听不见响尾蛇的警告声,这是耳朵被遮住了;完全相信AI推荐,这是判断被遮住了。两样加在一起,这个人就完全跟外界断了联系。危险就在旁边,她看不见也听不见,连最基本的警觉都没了。
人类在野外生存了上百万年,靠的是耳朵听、鼻子闻、眼睛看,不是地图APP。这些本能还在,只是被技术替代了。导航替我们记路,点评替我们筛选,算法替我们决策,最后我们连自己身处险境都意识不到。
这不是批评杨女士。换作大多数习惯了城市生活的人,突然被扔到野外,第一反应也是打开手机问AI。真正该问的是:当技术把人的感官一层一层遮住之后,我们还有没有能力在关键时刻自己察觉到危险?
这种依赖正在变成社会的默认设置。如果大家都觉得反正有AI,景区可能减少警示,管理部门可能放松安全提示,那危险就会成倍放大。技术越发达,公共安全的兜底责任越容易被推卸。杨女士活着出来了,但如果她没出来,追究责任的时候,AI公司会说仅供参考,景区会说她自己进来的,最后没人真正为这条命负责。
三、AI不知道你是谁,这是最要命的
同一个问题,附近适合走走的地方,问一个本地户外爱好者和问一个刚落地三天的外国女性,答案应该完全不同。但AI给的是同一个答案,因为它没有我们是谁这个概念。
它的训练数据是全球杂糅的文本,美国西部的地理信息、中文旅游攻略、户外论坛的帖子混在一起。它不知道这个保护区里响尾蛇很多,不知道外国人可能对当地生态毫无概念,更不知道随便走走在中文语境里意味着轻松、安全、不需要准备。
这就是AI的盲区:看起来什么都知道,实际上对具体的地方、具体的人、具体的情况都不了解。一条信息原本是在特定场景下说的,被抽离出来重新组合后,意思可能就全变了。
对本地人而言,"野生动物保护区适合徒步"是有前提的:知道这里有蛇,要穿高帮靴,遇到响尾蛇该怎么应对。但AI把这些前提全删了,只把结论端给一个毫无准备的人。这不是在传递信息,这是在误导。
在旅游、留学、移民这些跨文化场景中,这种盲区尤其致命。一个对当地什么都不懂的人,把AI当成向导,就是在拿自己的安全赌运气。
四、道歉不能代替责任
事后AI道歉了,甚至承认这和送死没有区别。但道歉不能抵消风险,更不能替代责任。
![]()
目前几乎所有AI服务条款都表示本回答仅供参考,不构成专业建议。出了事你自己担着。但问题是,当用户明确问安全吗、适合吗这类涉及人身风险的词时,平台还能不能躲在免责声明后面?
法律上,这触及一个核心问题:AI建议到底算什么?是产品、服务,还是纯粹的信息发布?如果是产品,有缺陷导致人身伤害,生产者该担责;如果是服务,提供者有过失也该赔;但如果只被定义为信息,那平台几乎可以为所欲为。
现在的尴尬在于,AI的产出既有产品的属性,又有信息发布的属性,法律还没跟上这种新形态。杨女士的遭遇如果诉诸法庭,很可能陷入无人负责的困境:AI公司说只是工具,用户只能自认倒霉。
但社会不能总靠免责声明来管理新技术。当年汽车刚普及时,也没有完善的交通法规,是出了足够多的血案之后,才倒逼出驾照制度、安全标准和责任认定。AI现在走的,就是那条老路。区别在于,汽车撞人是一起一起的,AI误导人是可以批量、同时、全球发生的。等法律完善的时候,中间还要出多少事,没人知道。
五、幸运不能代替制度
杨女士最终没事,靠的是运气。但公共安全不能建立在运气上。
真正该追问的是:保护区门口有没有醒目的警示?当地有没有把危险信息告诉AI平台?AI在回答涉及人身安全的问题时,有没有强制提醒?这些问题的答案大概率是没有或者不完善。
![]()
一个系统性保护的缺位,被一个AI误导的叙事轻轻盖过去了。大家看完新闻,感慨一句AI真不靠谱,然后继续该干嘛干嘛。但下次出事的,可能就不是杨女士了。
机器本身不危险,危险的是人把机器当成不用思考的借口。AI不会消失,它会越来越深地嵌入生活。但前提是社会要建好配套的东西:安全兜底、责任划分、公众意识。否则,这次她活下来了,下次的人未必有这么好的运气。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.