如果你部署过任何需要操作真实网页的AI代理,一定见过这种场景:第一次运行,加载首页,找到搜索框,搞懂分页规则,完成任务。第二次运行,同一个网站,同样的任务,从零开始重新摸索。模型只有单次运行的上下文窗口,运行之间没有笔记本。
这就是"健忘税"。运行十次无所谓,但如果每周对同一个网站运行一万次,成本就失控了。解决办法不是换更聪明的模型,而是给已经想明白的东西找个地方存起来。
![]()
Browserbase五月初开源的Autobrowse就是这个思路。4月22日Shrey Pandya首次预告,5月6日Kyle Jeong发布细节。你给代理一个真实网站的任务,它端到端运行,分析自己的执行轨迹,优化,再跑。三到五轮后,运行效果不再提升——这叫收敛。Autobrowse把收敛后的方案升级成可复用的SKILL.md,外加工作流需要的辅助脚本。
这个模式借鉴了Andrej Karpathy的Autoresearch:一个可编辑文件、一个指标、一个限时循环。Browserbase把这个循环对准了网站。关键不是循环做了什么,而是它留下了什么。
不是聊天记录,不是执行 transcript。SKILL.md是一份结构化操作指南,由代理写给下一个接手的人或AI。
以Craigslist为例,这份文件记录了一个未公开的sapi.craigslist.org JSON端点、强制要求的Referer请求头、能覆盖IP地理位置的邮政编码参数、分类枚举值、分页批次大小,以及哪些社区查询会出问题。这些都不在Craigslist官方文档里,是代理从网络流量里挖出来的。
下一个代理不需要再推理Craigslist怎么工作,直接读文件、调接口就行。成本变化很直观:Craigslist抓取从0.22美元降到0.12美元,表单填写从1.40美元降到0.24美元。
最夸张的案例是政府拨款网站。Autobrowse运行时注意到网络流量里有个未公开的JSON端点,一次调用就能返回所有当前拨款。原本28页的分页,压缩成一次请求。人类爬虫在这个网站上跑了几年都没发现。
解锁关键不是更聪明的模型,而是一个Markdown文件。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.