![]()
Claude Code的WebFetch功能,用过的都懂——公开网页秒抓,碰到登录页直接抓瞎。Medium付费文章、Facebook帖子、私有Substack,甚至Cloudflare保护的页面,AI agent拿到的不是内容,是登录框、验证码,或者一片空白。然后它就开始编。
开发者ancs21(GitHub ID)最近丢了个叫playpanda的工具,单文件不到400KB,用Zig语言写的。核心卖点粗暴:你手动登录一次,cookie存好,之后任何脚本、终端命令、AI agent都能直接抓内容。输出是净化过的markdown,导航栏、广告条、图片CDN链接全 stripped。
这解决的是个真痛点。现有方案要么让AI自己过验证码(成功率感人),要么干脆放弃需要登录的内容。playpanda走的是另一条路——把"人类已经完成的认证"借给机器用。
三层抓取策略:快→稳→狠
playpanda内部做了分级 fallback。最快路径走标准HTTP请求,碰到障碍就升级:需要JavaScript渲染?上headless浏览器。遇到Cloudflare?换更重的反检测方案。AI agent不用关心哪一层在跑,收回来的永远是干净markdown。
![]()
这种设计很像浏览器里的"无痕模式"和"正常模式"的混合体——既保留了自动化效率,又继承了人类用户的认证状态。ancs21在README里直接放了一行替换Claude WebFetch的示例:playpanda https://docs.example.com/private-api,意图很明显。
安装方式有三种。一键脚本:curl -fsSL ... | sh。作为agent skill:npx skills add ancs21/playpanda。或者从源码编译,需要Zig 0.15+,构建命令是zig build -Doptimize=.ReleaseFast,产物丢到~/.local/bin/就行。
400KB的体积是个微妙信号。用Zig而不是Python/Node写,不是为了炫技——是拒绝拖家带口。很多类似工具依赖Chromium,动辄上百MB,playpanda把"够用就好"执行得很彻底。
为什么现在才有人做?
这个问题反过来问更准:为什么大厂不做?Claude、Cursor、GitHub Copilot都有网页抓取能力,但清一色避开认证墙。不是技术做不到,是责任边界问题——帮用户抓取"需要登录才能看"的内容,版权和隐私风险谁担?
![]()
playpanda的定位很聪明:工具本身不破解任何东西,只是复用用户已有的合法会话。相当于你让朋友帮你打印一篇你付费订阅的文章——灰色地带,但很难直接追责工具。
ancs21在GitHub仓库放的是Apache 2.0协议,没有商业限制。这意味着如果验证模式跑通,被大厂"借鉴"只是时间问题。毕竟对AI agent来说,能访问的网页多一倍,可用场景就指数级扩张。
一个待解的悬念
playpanda目前只解决了"抓取"环节。内容拿到之后,AI怎么理解、怎么引用、会不会幻觉,是另一个战场。但至少,它把"登录墙"从"不可能"降级成了"已解决"。
ancs21在issue区回复用户提问时说,下一步考虑支持批量抓取时的会话隔离——防止不同网站的cookie互相污染。这个细节说明作者确实在用,不是扔出来就完。
最后一个问题留给读者:如果你的AI agent能访问你付费订阅的所有内容,输出质量会提升多少?以及,内容提供商会怎么反应?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.