![]()
90%的准确率听起来像及格线,放在搜索场景里却是灾难。按Google 2026年预计处理的5万亿次搜索计算,AI Overview每小时会产生数千万条存疑答案——每分钟出错几十万次。
这个数字的恐怖之处在于,你根本不知道自己是不是那10%的倒霉蛋。
「正确率」的障眼法:为什么90%等于失败
开源AI公司Oumi的研究团队做了个简单算术。Google AI Overview每10次回答里有1次出错,听起来不算糟?但搜索是高频动作,用户日均查询数十次,叠加全球数十亿用户,错误答案的绝对数量会膨胀到荒谬程度。
更隐蔽的问题是答案的不稳定性。Oumi发现,同一问题重复搜索,错误答案可能突然「修正」为正确版本。这种随机性让系统性评估变得几乎不可能——你今天搜到的答案,明天可能完全不同,却没有任何标记告诉你哪个版本更可靠。
Google把AI Overview标签固定在搜索结果页顶部,这个设计决策放大了风险。更多用户看到它,更多人默认它可信。产品界面在无声地传递一种暗示:这是官方认证的最佳答案。
信源黑洞:Facebook和Reddit成了「权威」
Oumi拆解了AI Overview的引用来源,发现排名第二是Facebook,第四是Reddit。准确答案引用Facebook的比例是5%,错误答案里这个数字跳到7%。社交媒体内容在错误场景下的出镜率反而更高。
另一个模式更棘手:AI Overview会扭曲可靠来源。它可能抓取了一篇正经学术论文,却在总结时把结论拧成相反方向。用户看到引用链接,点击后发现原文根本不是这么说的——但大多数人不会点。
这种「伪权威」比完全胡编更危险。它给错误答案披上了可信的外衣。
攻击面:如何把Google变成造谣机器
系统漏洞可以被利用。理解AI Overview爬虫规律的人,可以批量制造虚假内容,再通过流量手段推高网站权重。Google的算法可能将其纳入信源,生成错误答案,而整个链条里没有任何人工审核环节。
Google发言人Ned Adriance回应《纽约时报》时称:「我们的搜索AI功能建立在相同的排名和安全保护机制上,能屏蔽绝大多数垃圾信息。」他还补充:「大多数例子都是人们不会实际搜索的不切实际的查询。」
这个回应值得拆解。前半句是标准话术——用「绝大多数」模糊具体数字;后半句把责任推给用户,暗示出错是因为你搜了奇怪的东西。但Oumi的研究并未限定查询类型,且「不切实际」的定义权完全在Google手中。
认知依赖:比错误答案更贵的代价
早期研究已经指向一个更深层的问题:过度依赖这类工具可能对整体认知能力产生负面影响。当用户习惯接受即时生成的摘要,主动检索和交叉验证的意愿会衰退。AI Overview的错误率再低,也改变不了它是一个黑箱系统的事实——你不知道答案怎么来的,无法预判何时会崩。
Google的商业模式决定了它必须推AI Overview。搜索广告增长见顶,AI摘要能延长用户停留时长,创造新的广告位。准确率是成本,速度和市场占有率才是KPI。90%在这个语境下不是技术缺陷,是商业权衡后的可接受损耗。
问题是,损耗的是用户对信息的信任基础。当数千万错误答案每小时流入全球用户的认知系统,谁来计算这笔账的复利?
你今天最后一次用Google搜索时,有没有点过AI Overview下面的「来源」链接?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.