用户搜黎元洪,豆包给出了用范伟PS的照片。
![]()
(豆包搜索黎元洪出来范伟的PS照)
这是AI的常见错误,让人意外的是:这事儿竟然也上了热搜。
这不是AI第一次干这种「蠢事」,也不会是最后一次。之前,有小朋友拿着一个老鼠夹问AI是什么东西,AI说是「废弃卡丁车小玩具」,说得有鼻子有眼:「方方的底盘、金属的结构」,结果孩子手指被夹了;有用户丢给AI毒蘑菇,AI判定为可食用杏鲍菇,结果……遇到这样的情况,AI都会诚恳道歉。
![]()
(网友总结“豆包型人格”)
是豆包越来越傻了吗?不是。当豆包月活涨到3.45亿时,哪怕错误率是恒定的,分母膨胀了,分子自然会变大,翻车案例就会增多,并且每一次都会引发豆包用户们的“共鸣”,吵上热搜。所以说,AI翻车段子的数量,其实是AI渗透率的反向指标。
前几年,总有人说百度地图傻,但也有人说高德地图笨,其实没有谁比谁更聪明:看你用哪个App多,用得多了,总会遇到导航出错的情况。
AI搜索骗你,是因为互联网骗了AI
这次豆包错将范伟当黎元洪,官方回应说是跟一部电影选角有关:范伟和黎元洪确实长得像,前者的PS图当年被媒体大量报道、全网疯传,部分图库和百科页面也曾误收录,所以AI检索时优先命中了这些高频传播的错误图片。
所以AI经常犯错的根本原因是:互联网的汤底里本来就沉着一堆错料,AI拿勺子舀的时候,刚好把最大块的那坨舀上来了。
这不是什么“豆包的问题”,这是“所有AI的问题”,并且AI生成的内容被网友海量发布到网上,交叉污染。NewsGuard在2025年8月发布的数据显示,10款主流AI工具在新闻话题上重复虚假信息的比例是35%,而一年前只有18%。GPT-4.5的生成答案中,缺乏依据的主张比例达到了47%,Perplexity深度研究工具甚至出现了97.5%的惊人数字。
换言之,你看到的每一个AI搜索答案,从统计学原理上就已经包含了不可消除的噪声。
有个朋友前几天和我说,现在AI搜索99%是对的,1%的结果犯傻,我们只要识别出这1%就可以放心使用AI搜索。查了一组数据,发现AI搜索准确率比我们预期的还要低。根据Google内部测试数据,在4326条样本中,Gemini AI概览准确率已达91%,虽然非常高,但依然有每10条就错1条的可能。中国AI搜索面临的实际情况更复杂,「自媒体平台」做号党的内容创作制度让中文互联网的文本污染尤其严重,很多新媒体平台今天的内容已是满目疮痍,大量的AIGC内容以及AI洗稿伪原创内容充斥其间,堪称屎山一座。
从技术上,考虑到数据质量和大模型技术原理,99%的准确率对AI搜索是一个遥不可及的目标,100%的准确率如同「绝对零度」:可不断接近,但永远无法达到。
更何况,世界的某些问题本就没有唯一正确答案。AI的知识来自互联网,互联网的信息来自人类,人类的知识不是全都已经明确的。斯坦福大学2025年发表在《自然·机器智能》上的论文说得很直白:最新的大语言模型在验证事实性数据时的平均准确率最高只到91.5%,而面对用户的错误信念时,AI几乎无法可靠区分“他坚信的”和“事实”。这并不让人意外——如果人类自己都没搞明白有些情况是“我以为的事实”还是“事实”,我们又如何要求AI全都搞明白呢?
AI搜索好傻,为何人类却越来越上瘾?
真正有意思的问题不是“AI为什么犯错”,而是“这么容易犯错,为什么人们还在用”。
人类不是没有选择。拒绝AI搜索,起码能用百度、Google等未掺和任何AI结果的传统搜索。然而,每天被骂犯傻翻车的豆包月活3.45亿,千问、文心、元宝、deepseek的用户规模也在高速增长,AI搜索吞噬传统搜索的进程肉眼可见。
传统搜索引擎只负责提供一长串网页链接,完成相关性排序,决定谁靠前。至于结果哪个是对的,由用户自己打开网页一个个分辨,效率低下。AI搜索将用户获取信息的效率提高了几个数量级,因为它只提供「唯一」答案,但理论上来说这个结果必须是100%准确。
但「唯一答案」本就是一种低容错设计。如果用户将决策100%建立在可能错误的答案之上,一旦出问题就会很严重,轻则上热搜闹笑话,重则食用毒蘑菇去医院。
这就像你问路:百度递给你一张地图让你自己找,走错了你认了还对百度心怀感恩;豆包告诉你往东走第三个路口左转,你走到发现方向反了,哪怕豆包是无心之失也会被你回去痛骂一顿。
传统搜索追求的是「召回率」高,搜出来的东西跟搜索词能不能沾上边;AI搜索追求的是「高效率」和「准确率」。既然AI搜索当前准确率才90%左右(以谷歌gemini为基准),为什么人们还是越来越爱用,而不是在“给你一堆结果你自己判断”的传统搜索逗留呢?
我在这里抛出一个暴论:人类对信息精确度的需求,实际上是被高估的。
在日常生活中,99%的搜索场景并不是用来做生死攸关的判断。查天气、做旅游攻略、研究护肤方法、整理想法、看八卦……信息稍微有些偏差并不会造成严重后果。就拿黎元洪这事来说,对99%的使用场景而言,这就是个茶余饭后的笑谈,用户不会因为这个搜索结果重新看待整个晚清史。
但是,如果一个人做学术研究、投资决策、医疗方案用AI搜索,那就不能怪AI犯傻。因为这些场景下,用户得到的信息必须100%准确,AI搜索「答案仅供参考」。
对于大多数搜索场景来说,91%的准确率足够用了。而且退一步说,在没有AI搜索的年代,你在小红书上看减肥笔记、在搜索引擎搜「皮肤科好的医院」,看到的信息就是真的吗?说不定是广告。还有,手机能不能放枕头下、大姨妈来了能不能喝冷水,这些问题本就没有标准答案,AI不过是反映了人类的知识混乱。
正是这种普遍存在的“91%准确率够用”的低风险需求,让AI搜索日益普及:它的错误率虽然高,但只要错误不是彻底致命的,人们总是更在意「效率」而不是「精确」。
当你用AI搜索更复杂、更严肃、更「物理」的决策问题时,这个逻辑才彻底失效。比如你要确认某种蘑菇能否食用时……问题切入到生命、健康、财产、风险和决策地带时,91%的准确率可能会让你付出沉重的代价。
所以现在医疗、法律、金融这种「高后果」场景领域,出现了「专用AI」而非「通用AI」,比如面向医疗健康场景的蚂蚁阿福,但即便是它们也无法保证100%不出错。
责任在你:所有系统都有bug,AI也不例外
两千年前,孟子说「尽信书不如无书」,既然书籍上的知识都不一定是对的,我们又如何敢100%绝对信任AI?「尽信AI不如无AI」。
有人开着一辆带辅助驾驶功能的电车,在高速上双手离开方向盘刷朋友圈,出事后甩锅给车企,但厂商把“驾驶员是操作车辆的第一责任人”写进了用户协议,“小字没看到”也无法转移自己的责任。
在AI搜索获取信息这个维度上,情形是完全一样的。当人类越来越依赖AI时,我们不仅要期待厂商训练AI更准确,更要努力训练自己的判断能力。在智商、情商后,AI时代人类的“信商”将越来越重要:也就是真假信息甄别的能力素养。没有任何公司能给你一个100%准确的AI,你要做的就是把方向盘紧紧握在自己手里。
任何系统都有bug,任何AI吐出来的结果都可能是错的。记住这个常识,是正确使用AI的第一步。
回到豆包身上。黎元洪变范伟其实并不影响“豆包该不该收费”的辩论,关于「好的AI为什么一定要收费」我已经在另外一篇文章《付费版68元/月!豆包也撑不住了?》中讨论了。澎湃新闻说在AI大规模收费之前,或许应该“打扫干净屋子再请客”。问题是,AI的屋子永远都扫不干净,扫干净了还有灰尘。ChatGPT收费版也不能确保100%准确,因为没有AI能做到100%绝对准确。就算是用于创作等生产力场景,AI结果也不能、不应拿来就用。
对结果的判断、审核、识别也就是「正确使用」,是人在AI时代的核心价值。
所以:下次吃了毒蘑菇,千万不要怪豆包。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.