![]()
50个网页,$0.30。按这个价格,一家中型电商网站的全站审计要烧掉几千美元。Pascal CESCATO在评论区扔下一句话:「这些用不着大模型,Python正则就能搞定,零成本。」
作者最初没当回事。毕竟他的审计代理能判断「标题读起来像导航标签而非页面描述」——这确实需要语义理解。但Pascal的反驳很直接:为什么要把所有页面都送进最贵的模型?
第一层:机械检查,$0
标题超过60字符?失败。描述缺失?失败。H1标签数量为0?失败。这些不是判断题,是计算题。
作者最终承认:让能分析莎士比亚的模型来数到60,属于性能滥用。Tier 1用纯Python处理,成本归零。
50个URL里,这一步筛掉了多少?原文没给具体数字,但提到「大多数」——典型 agency 网站的常见毛病:描述缺失、标题过长、canonical 标签遗漏。
第二层:轻量模型,$0.0001
有些页面过了机械检查,但「哪里不对」。标题存在,只有4个字符。描述存在,只有30个字符。状态码是重定向。
这些案例交给Haiku(轻量级模型),单次调用约$0.0001。比人工调试为什么机械规则漏检更便宜。
Julian Oczkowski在讨论中把这个结构命名为「分层」:确定性规则先行,轻量模型做分流,大模型只留给真正的边缘案例。
第三层:重炮,$0.006
Haiku flagged 的页面进入Sonnet。标题长度合规,但读起来像面包屑导航。描述和标题完全重复。这些需要语义判断。
作者最后一次运行:50个URL,8个走到Sonnet。总成本从~$0.30降到~$0.05。降幅83%,但质量没降——那8个才是真正值得付费的。
整个架构被重写。core/目录保持扁平,MIT许可证,原始七个模块不动。v1用户照样跑python core/inventory.py,不会断。
新增的是orchestrator/:路由逻辑、模型选择、成本追踪。作者叫它「成本曲线」——从免费到昂贵,按任务实际需求滑动。
Pascal最初的说法其实不完全对。零成本方案处理不了「标题像导航标签」这种判断。但他指出的方向是对的:不是所有问题都需要最贵的工具。
这个三人评论区协作诞生的架构,现在成了repo的主干。作者公开承认:「比我最初发布的更好。」
开源社区的一种常见模式:发布作品,被陌生人指出漏洞,承认,重建。少见的是承认得这么快。
最后一组数字:重构后,84%的页面停在Tier 1,一分钱不花。16%需要模型介入,其中又只有一小部分用到最贵的Sonnet。
如果你的SEO审计账单还在按URL计价,问题可能不是模型太贵,而是路由太蠢。
作者没说的是:这个模式能迁移到多少其他场景?代码审查、文档分类、客服工单——所有「先筛一遍,再细看」的工作流,是不是都该重新算笔账。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.