![]()
去年夏天,Dan Shipper的妻子在利物浦开了家克什米尔餐厅。口碑不错,回头客多,Google Maps评分漂亮。但有个怪事:只要有人跟ChatGPT或Perplexity问"利物浦有什么好吃的克什米尔菜",这家店就像从没存在过。
Dan是AI工具开发者,自然想搞明白问题在哪。他扒了一圈发现,AI搜索引擎的推荐逻辑跟传统SEO完全是两套系统。Google能搜到的店,AI可能压根"看不见"。
于是他做了Visus——一个免费工具,专门给网站打分,看它们在ChatGPT、Perplexity、Google AI眼里的可见度有多高。满分100,他妻子的餐厅最初只拿到23分。
一家餐厅的AI复活记
Fozias的问题清单很典型:没有结构化数据告诉AI"这是家餐厅",没有FAQ内容匹配用户提问,各平台店铺信息不一致,缺少llms.txt文件(让AI爬虫顺利读取的说明书),实体定义模糊——AI引擎连"这店是干嘛的"都拿不准。
Dan团队花了90天修完所有漏洞。新分数:80分。结果立竿见影:Perplexity搜"利物浦克什米尔餐厅",Fozias排到第一;ChatGPT推荐利物浦美食时也开始带它玩。
这是真店、真客、真流水。不是实验室数据。
然后Dan做了件狠事:把Visus自己的官网丢进工具里测。
![]()
分数出来:35分。
一个专门帮人提升AI可见度的产品,自己在AI眼里几乎隐形。
自我审计的5个漏洞
Visus给自己开的诊断书同样扎心:
两个域名的规范URL设置混乱,AI爬虫不知道该信哪个;没有llms.txt文件——这工具天天劝别人加,自己都没装;FAQ结构化标记缺失;可爬取内容太薄,React单页应用对AI爬虫极不友好;缺乏可信第三方引用背书。
Dan在博客里说,这个结果"humbling"—— humiliating的礼貌版。
团队用了一个下午全修完。补了SoftwareApplication、Organization、WebSite、FAQPage四套结构化标记;写了详细的llms.txt;规范了所有URL;加了8条FAQ,覆盖用户可能问AI的每个问题。
新分数:76分。一次会话涨41分。
![]()
AI可见度≠Google SEO
这个案例暴露了一个被严重低估的认知差:你在Google排第一,不代表ChatGPT认识你。
两者的信号系统完全不同。Google看反向链接、关键词密度、页面权重;AI引擎看实体一致性、结构化数据清晰度、是否被可信来源提及、有没有直接回答用户问题的内容。信任机制也不一样——Google信的是链接图谱,AI信的是信息溯源和语义明确性。
Dan观察到一个时间窗口:现在行动的企业,将在未来数年锁定AI推荐位。等竞争对手反应过来,追赶成本会高得多。这跟早期SEO的红利期逻辑一致,但窗口期可能更短——因为AI引擎的推荐位比Google搜索结果页更稀缺,通常只给3-5个选项。
他总结了5个核心要素:
结构化标记——用机器可读格式明确告诉AI"你是谁";FAQ内容——直接回答用户向AI提问时可能用的句式;实体一致性——店名、地址、描述在所有平台必须一字不差;外部引用——被可信第三方提及;llms.txt——给AI爬虫的访问说明书。
最后一条最反直觉。llms.txt是去年才出现的概念,类比robots.txt,但专门为大型语言模型设计。它告诉AI:我的网站有什么、什么最重要、你可以怎么理解我。目前采用率极低,可能是最大的低 hanging fruit。
Visus自己的翻身说明了一件事:AI可见度问题不是技术债务,是认知债务。你知道该做什么,半天就能改完;你不知道,三年都碰不到那个开关。
Dan没有透露Visus现在的流量变化。但有个细节值得玩味:他在文章结尾附了Visus的评分链接,邀请读者也去测自己的网站。这既是产品推广,也是新一轮数据收集——毕竟,谁比用户自己的审计报告更能说明问题呢?
你的官网在AI眼里能打多少分?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.