传统搜索时代,我们有个奢侈的特权——数据。想知道"最佳AI营销工具"每月被搜多少次?谷歌关键词规划师给你精确到个位。但踏进AI搜索的世界,灯突然灭了。ChatGPT、Claude、Gemini、Perplexity,没有一个平台开放查询量API。数千万用户每天在这些黑箱里提问,而外面的人只能干瞪眼。
Aditya Mangal,一个做数据产品的工程师,决定自己动手造一盏灯。他的目标:用间接信号估算AI搜索量(AI Search Volume,简称ASV),把不可见的变成可见的。
黑箱里的脚印:为什么AI搜索成了测量盲区
谷歌搜索的商业模式建立在数据透明上。广告主需要知道关键词热度,SEO从业者需要追踪趋势,这套基础设施运转了二十多年。但AI搜索的商业模式完全不同——订阅制、对话式、无广告位,平台没有动力公开查询数据。
这造成一个荒诞局面:企业想优化AI可见性却找不到北,研究者想分析趋势却无从下手,创业者想验证需求却像在雾里开车。Mangal在文章里打了个比方:「每个查询都在互联网上留下脚印,我们只是需要收集并解读它们。」
他的解决方案不碰任何平台的内部数据,而是向外看——找那些AI查询会必然触达的外部痕迹。
五层漏斗:从用户问题到ASV分数
整个系统像一台逆向工程的信号解码器。用户输入一个种子查询,比如"最佳AI营销工具",系统先进行语义扩展——不是简单的同义词替换,而是理解意图后的变体生成。营销工具可能拆成"AI文案工具""自动化营销软件""小红书运营AI"等十几个方向。
扩展后的查询群进入多源数据采集层。Mangal没透露具体用了哪些源,但从技术逻辑推断,可能包括:公开论坛的讨论热度、社交媒体的相关提及、传统搜索引擎的关联查询建议、以及AI平台自身泄露的片段信息(比如Perplexity的"相关问题"推荐)。
数据清洗后进入分析模块,核心是比较信号强度的时间序列变化。最后一个环节是加权评分,不同源的置信度不同,老论坛的帖子和推特热搜的权重显然不该一样。最终输出一个标准化的ASV分数,大致对应"这个查询在AI生态中的月度活跃讨论量"。
关键洞察:ASV不是搜索次数的精确复刻,而是相对需求的可信排序。它回答不了"ChatGPT上被问了100万次还是200万次",但能告诉你"这个查询比那个查询热3倍"。
信号考古学:当测量本身成为产品
Mangal的项目有个微妙之处——它把"测量不可测量之物"本身做成了可售卖的能力。传统SEO工具卖的是数据访问权限,ASV工具卖的则是推理方法论。买家得到的不是标准答案,而是一套经过校准的估算逻辑。
这有点像早期谷歌的PageRank。当网页质量无法直接量化时,用链接关系间接推断。区别在于,PageRank后来成了谷歌的核心资产,而ASV估计器可能永远只能是第三方补丁——平台越封闭,补丁越有价值,也越脆弱。
文章发布于2026年4月,Mangal在文末留了句轻松的讨赏:「创作者靠咖啡运转。」但评论区有个问题悬着:如果AI平台突然开始部分开放数据,这套系统是会贬值,还是因校准了更长时间序列而变得更准?
测量黑箱的人,最终也成了黑箱的一部分。当ASV估计器被足够多的企业采用,它会不会反过来影响企业的AI优化策略,进而扭曲它试图测量的原始信号?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.