![]()
演员刘美含想做一件很小的事:确认“铸币坊”的“坊”字读哪个声调。
她打开了五款主流AI工具,逐一提问,得到了五个答案,其中四个是错的。最终给出正确读音“fáng”的,是百度AI。事后经《新华词典》App和南京师范大学化振红教授双重验证,“铸币坊”是造币场所,“坊”读fáng,二声没有任何问题。
本来只是个无伤大雅的小测试,却在一个特殊的时间节点被放大了。就在刘美含的测试视频在网上发酵的同一周,中央电视台315晚会曝光了一种新型黑产:只需花几十元,就可以让一篇定制软文在几天之内成为AI搜索的“标准答案”。
![]()
这种操纵手法有个专业名字——GEO(生成式引擎优化),它是SEO在AI时代的变种,利用AI搜索在信源权威性判断上的结构性漏洞,将人工植入的内容包装成可信的知识。
虚构的产品评测、杜撰的专家背书、捏造的权威数据,被AI用笃定的语气、流畅的措辞,一本正经地呈现在屏幕上。广告与内容的边界被刻意模糊,用户几乎没有任何辨别的线索。
两件事并置,不难发现二者是同一个问题的两个截面。一个截面,是AI搜索的信源体系可以被人为地污染和操控;另一个截面,是AI自身的生成逻辑,在底层就缺乏对“准确”的稳定追求。前者是外部攻击,后者是内部缺陷,两者同时存在,共同指向一件事:这轮AI浪潮里,信息的可信度问题,被严重低估。
当两条裂缝同时暴露在公众视野里,一种始料未及的情绪开始在社交网络上漫延——开始想念百度。
这种情绪最初显得有点奇怪。毕竟过去几年,AI对“百度搜索”的冲击似乎是网络上更主流的叙事。但如果仔细拆解这种情绪的结构,会发现它并非是对旧时代的感伤,而是一种很理性的风险规避信号。
尤其是在生成内容的边际成本趋向于零、真实信息的密度被大规模稀释时,百度积累了二十年的内容审核体系,正从一种合规成本,反转为大模型时代稀缺的确定性。
当GEO黑产撕开AI搜索的“虚假繁荣”
AI搜索这两年增长的速度,容易让人忽略一件事——可靠性。
这轮高速扩张之下,其实存在两条始终没有被真正修复的裂缝,一条在外部,一条在内部。两者叠加,才构成了今天这场正在蔓延的系统性信任危机。
理解GEO黑产,首先要知道一个事实:当前这一代AI搜索,在处理信息时,“相关性排序”和“权威性判断”是两套分离的逻辑。
相关性可以被算法快速处理,通过语义匹配、关键词密度、平台传播量,AI能够高效判断一条内容是否与查询词高度吻合。但权威性的判断要复杂得多,它需要识别内容来源是否可信,发布者是否具备专业背景,结论是否经过多方核实。这道判断,目前在大多数AI搜索的答案生成流程里,是缺位的。
这个结构性的缺口,就是GEO黑产的入口。一篇精心撰写的软文,只要在关键词上够精准、在格式上够专业,就能顺利通过相关性这道门,然后绕过权威性的审查,直接进入AI的答案池。
![]()
更离谱的是,黑产从业者已经把这个缺口做成了标准化生意:定价透明,交付迅速,且规模可复制。
但如果说GEO黑产是从外部打入楔子,AI自身的生成逻辑则提供了另一层更根本的不稳定性。刘美含的测试已经说明了问题:五款主流AI工具,四款给出了错误答案,且大多数在给出错误答案时语气同样笃定。
而且AI幻觉还有一种更隐蔽的形态。《新立场》此前实测,要求某款头部AI APP总结“今日全球最新资讯”,AI返回了一段措辞规整、层次分明的新闻摘要,但那些“最新资讯”全是几天前的旧闻。
![]()
在直接指出这个问题后,AI立刻给出回应:抱歉,刚才的整理确实混入了一些本周稍早的背景信息。注意这句话的措辞,不是“我给出了错误信息”,而是“混入了背景信息”。错误被包裹在一个语气温和、措辞精准的解释里,听起来像是一个严谨的编辑在复盘流程失误,而不是一台机器为错误输出道歉。但这种流畅,本身就是问题所在。
![]()
AI不是在“查找”答案,它是在“生成”答案。而这两种动作之间的差异,比人们通常意识到的要更大。查找意味着有一个确定的事实在某处等待被找到;生成意味着答案是被实时构建出来的,依据是训练数据和上下文推断,而非对真相的直接访问。
生成逻辑天然倾向“流畅”而非“准确”。一个听起来有说服力的错误,比一个结结巴巴的正确更容易被生成出来,毕竟流畅性本就是大模型被优化的核心目标。某些AI在刘美含测试中的前后摇摆,也是这个逻辑的直接体现。
但这种“不知道自己不知道”的特性,恰恰又是当前AI搜索信任危机最难处理的部分。传统搜索的局限是清晰的,找不到就是找不到,返回的是空结果或低相关度结果,用户可以意识到信息的缺失。AI搜索的局限是隐蔽的,它总是能生成一个看起来完整的答案,即使那个答案是错的。
正因如此,“开始想念百度”的市场情绪更应当被认真对待。作为最近几个月频繁出现的表达,它不单单是怀旧,更是指向一个极其具体的诉求:用户需要一个溯源清晰、且答案背后有主体担责的信息载体。
这个需求,在传统搜索时代是被满足的,只是满足得太自然、太隐形,以至于大多数人从来不需要意识到它的存在。而现在,AI搜索在某种程度上把这道门撤掉了。
从“概率生成”回归“确定性过滤”
既然问题指向的是AI信源体系的两条结构性裂缝,那要回答的问题就变得具体了——是否存在一种不同的信息处理范式,它在架构上就规避了这两条裂缝?
答案指向一个根本性的逻辑差异:AI是“生成后过滤”,百度是“过滤后发布”。这两种逻辑的顺序调换,决定了完全不同的信任天花板。
![]()
举个简单的例子,百度百科的运作逻辑,从入口处就与AI的生成方式有了本质上的区别。
一个词条在上线之前,编辑者必须提供权威媒体来源的书面佐证:新华网、人民网、央视、各级政府官网,这是最低准入门槛。类似315晚会曝光的那类自媒体测评、未经核实的UGC内容在进入百度百科前就会被拦在门外。
在通过了机器审核完成初筛后,还有人工审核员复核,对于人物类、企业类等敏感词条,高级审核员还会进行二次核验。整套流程的本质是“先审后发”,内容在成为数据库一部分之前,就已经完成了权威性验证。
把这个逻辑和AI的生成方式放在一起看,AI是先生成,再在对话层面进行有限的过滤,过滤的深度取决于每次对话的上下文质量。百度百科是在内容进入数据库之前就完成了过滤,这道关卡不受对话上下文影响,不受提示词技巧左右,它是固定的、制度化的、并且可追溯的。
当然,仅靠内部制度还不够。权威信源的价值,部分来自于“谁参与了构建这套知识体系”。2024年12月,百度百科发布“繁星计划”,联合中国科学院大学、北京大学等机构,汇聚了超过10万名专家,共同维护超过100万个专业词条,词条总量突破3000万。
这有点类似于一个自我强化的网络效应在运作,每一个权威机构加入这个协作网络,整个内容体系的可信度阈值就相应提高;可信度阈值越高,就会吸引更多权威机构愿意把自己的名字和这个平台绑定。这个飞轮一旦建立,其加速度是自我强化的。
当然,这并不是指百度要在AI和搜索之间二选一,而是百度把AI整合进了同一套信源验证体系里。
具体来说,百度AI答案背后有三道过滤机制同时工作。多源比对,让系统自动抓取发布时间、作者权威度等维度进行交叉比对,只有来自权威专业领域、时效性强的信息源才有资格进入候选池;交叉验证,使得同一个结论必须有多个可信来源同时支撑才会被采用,排除单一信源带来的单点错误风险。还有,秒级自动巡检,一旦发现内容有偏,系统和人工会立即介入,重新生产内容。
我们可以用一个建筑类比来理解这个架构,AI搜索是在地基未经夯实的地面上快速盖楼,速度很快,外观也不错,但稳定性无法保证;百度的做法是先把地基夯实,再在上面加建AI这一层。
这种筛选逻辑优先保证结论的可靠性。通过继承搜索层的信源识别能力,百度让AI的输出处于一种被验证过的秩序之内。
这个模型有没有外部市场验证?有,而且验证来自一个相对客观的维度——开发者的选择行为。
OpenClaw是目前全球最受关注的AI智能体平台,其Skill市场类似App Store,开发者在22000多个可选技能里为自己的AI智能体选配功能插件。在这个高度竞争的市场里,百度搜索Skill已经成为全球下载量第一的搜索引擎官方插件。
![]()
开发者给出的理由很直接:搜索类Skill是智能体的“基础设施”,决定了整个智能体应用的信息质量上限。选择百度,是因为它更懂中文权威信息,且具备信息安全背书。
这个选择的逻辑和普通用户的逻辑是一致的,只是被表达得更工程化:在智能体时代,一个AI应用的“智商上限”,取决于它调用的信源有多可靠。
百度的确定性成了“稀缺资产”
在AI普及之前,互联网的守门机制是隐形的。
搜索引擎的排序算法在默默清洗垃圾内容,百科的编辑制度在持续保障基础词条的准确性,主流媒体的信源核查在为公共信息兜底。这些机制一直在运转,只是用户从来不需要意识到它们的存在。
AI搜索的大规模普及改变了这一点,但却带着点悖论式的意味:AI让信息的获取变得更“无缝”,同时也让信息的质量变得更不透明。用户得到的是一个格式上无懈可击的答案,但他们无法知道这个答案是从何处检索的、经过了哪些过滤、错的可能性有多大。
![]()
这种不透明在流量场景下通常不是大问题——查天气、问路线、找餐厅,AI的便利性完全盖过了对精确性的需求。但在另一些场景里,比如医疗诊断、法律条文、历史事实、语言规范,这种不透明就会让人感到不安。
此前有一种流行的叙事认为,AI会取代一切传统信息工具,让搜索引擎、百科全书和新闻媒体都变得过时。这个叙事有一个根本性的漏洞:它假设AI能够自己生成权威性,而不是从既有的权威体系里继承权威性。
现实是,AI的答案质量,在很大程度上取决于它所调用信源的质量。AI没有让“权威信源”变得不重要,恰恰相反,当噪音在供给侧急剧增加,信号的价值就在需求侧被反向放大了。
这是一种结构性的重估,原本隐形的“守门机制”,因为噪音变多,突然变得可见,可见之后才能被定价。
百度正在经历这个重估过程。但重估不会自动完成,它需要百度主动把原本“存在但不被感知”的价值,变成用户和市场可以感知的差异。这件事大致有三个维度需要被推进。
在制度层面,可以把“先审后发”从内部流程变成行业可见的信任凭证。百度百科的内容准入机制、机审加人审双重流程、权威信源溯源体系,这些东西目前是运转着的,但对用户而言是黑箱。价值重构的第一步,是让这套机制变得透明可见,例如在信息呈现层面,让用户能够直接看到每一个答案的信源路径。信源透明不只是道德选择,也应该成为AI时代建立差异化竞争壁垒的实质性动作。
![]()
协作层面,“繁星计划”应该是被理解为构建一个“中文知识权威网络”。这个网络目前的身份是百度的内容资产,但它的想象空间更大:当参与机构足够密集、词条覆盖足够全面,它有可能成为整个中文AI生态的信源底座——不只是百度自己用,也可以成为整个行业可引用的权威参照系。
用户层面,信任差异需要被翻译成具体的场景切换逻辑。不是所有问题都需要“守门”,问天气、查路线、聊创意,AI的流畅生成已经足够好用,这一点百度没有必要否认。但当问题涉及医疗、法律、历史、语言标准,AI才需要在这些“高可信需求”场景里,把自己的差异化做到让用户感知得到,比如更清晰的信源标注和更一致的事实准确率。
当然,这里有必要补充一点并不那么乐观的判断:重估并不等于逆转。AI搜索在便利性和交互体验上的优势也是真实的,这需要的不只是对现有机制的坚守,还有在AI时代持续的产品层面的演进。
尽管如此,有一个结构性判断依然成立,那就是在AI噪音大规模涌现的当下,“确定性”本身就是稀缺资产。而百度二十年积累的内容审核体系、权威信源协作网络、以及“过滤后发布”的底层范式,恰好是这个稀缺资产最合适的载体。
它的含金量不是突然出现的,只是在过去很长一段时间里,这块金子埋在日常使用的便利性之下,没有被看见。现在,AI时代的噪音把土层吹散了。
AI能力的竞争本质上在往两个方向同时演进:一个方向是生成能力的竞赛,比谁更能说、更能写、更会推理;另一个方向,越来越多的从业者开始意识到,是信源质量的竞赛,比谁能让AI说出来的话更值得信。后一个方向,目前的参赛选手并不多。
而百度是里面起点最高的那个。
*题图及文中配图来源于网络。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.