你的 Agent 是瞎子。
这话没错。绝大多数人的 AI Agent 只能靠训练数据回答。你问"恒瑞医药今天什么政策",它要么编,要么说不知道。
解决的办法看起来很简单——接个搜索 API。
但问题在于:一台机器翻译 API 关停后,我再也不同意外包翻译——你永远不知道第二天早上哪家涨价了,哪家跑了。
今天聊聊另一种思路:
不用任何搜索 API,让 Agent 自己用浏览器查。
成本为零,结果完整,不受任何第三方牵制。
先看看市面上的方案有多贵
网上搜 Agent 搜索方案,跳出来的全是"接 Perplexity API"、"接 Brave Search"、"接 Google 搜索 API"。
打开官方文档一看,价格都不含糊。
方案
免费额度
超出后价格
是不是真免费
Perplexity
$1/百万token(基础版)
Brave Search
~1000次/月
$5/千次查询
⚠️ 勉强
Grok
$10/千次工具调用
Kimi
¥0.6/百万token
算一笔真实的账:
一个普通用户的月度搜索成本:
• 搜一次「恒瑞医药最新政策」,翻 10 页 = 几块钱
• 调研一个竞品 = 十几块
• 每天查几次 = 一个月下来好几百
这还没算大模型总结那些搜索结果的 token 费。
你要是做 Agent 工具的开发者,这成本乘以用户数直接起飞。
换个思路:Agent 自己打开浏览器搜
思路很简单——
人类怎么搜索的?打开浏览器,输入关键词,点开链接,看内容。
Agent 完全可以做同样的事。
用浏览器自动化(OpenCLI 的 browser 功能、Playwright、Puppeteer 都行),模拟人工操作:
# 模拟人类搜索流程:
1. 打开 Bing(或 Google、百度)
2. 在搜索框输入关键词
3. 点击搜索结果
4. 提取页面内容
5. 翻页继续
6. 自动保存到本地
全程不需要调用任何搜索 API。
浏览器能看到什么,Agent 就能拿到什么。API 返回什么字段不受你控制,但你自己抓——整个页面都是你的。
而且还有一个巨大的隐藏好处:
抓下来的页面自带文字,但大部分都不是核心信息。
本地先过滤一遍,只把关键信息(大概每页 1000 字)喂给大模型。
原本 1 万 token 的网页,到你手里只剩 1/10。
Token 消耗直接砍掉 90%。
怎么封装到 Hermes / OpenClaw / Claude 里
上面说的是原理,实操就几步。
用 OpenCLI 的 browser 命令,写一个简单的搜索脚本:
#!/bin/bash
# bing-search.sh — 浏览器自动化搜索,不需要任何 API Key
KEYWORD="$1"
PAGES="${2:-5}"
DIR="bing_result/$(date +%Y-%m-%d)"
mkdir -p "$DIR"
for ((i=1; i<=PAGES; i++)); do
opencli browser go "https://www.bing.com/search?q=$KEYWORD&first=$(( (i-1)*10 ))"
opencli browser extract-text > "$DIR/page_$i.txt"
sleep 2
done
echo "✅ 搜索完成,结果保存在 $DIR"
这只是一个示意,实际用的时候可以加上链接提取、去重、过滤脏数据。核心就两条:opencli browser go模拟浏览,extract-text提取内容。
脚本写好后,封装成 Hermes Skill 只需要两步:
# 1. 创建目录
mkdir -p ~/.hermes/skills/research/bing-search/
# 2. 把脚本放进目录
cp bing-search.sh ~/.hermes/skills/research/bing-search/
# 3. 写 SKILL.md
cat > ~/.hermes/skills/research/bing-search/SKILL.md << 'EOF'
---
name: bing-search
description: 用浏览器自动化搜索,无需 API Key,支持多页
---
在 /skills/research/bing-search/ 下有一个 bing-search.sh 脚本。
告诉用户你可以搜索任何关键词,指定翻多少页,然后汇总结果。
EOF
Hermes 自动识别 SKILL.md,之后你说一句:
"搜一下恒瑞医药,翻 10 页,总结关键信息。"
Hermes 自己调用脚本 → 抓 10 页 → 提取内容 → 总结给你。你不需要手动跑任何东西。
OpenClaw 同理,放到~/.openclaw/skills/下即可。Claude Code 也一样,Skill 协议是通用的。
而且 Hermes 在这件事上有个额外优势——它完成复杂任务后会自动把工作流封装成新 Skill。
第一次你让 Agent 做"搜索 + 过滤 + 总结 + 生成报告",它老老实实跑完所有步骤。Hermes 后台把这个流程记录下来了,下次你说"帮我调研 XXX",它直接走上次沉淀的路径——跳过探索损耗。
静态 Skill vs 自进化 Skill,差距在这里。
OpenClaw 的 13,000 个社区 Skill,全部是静态的——装好什么样,用一年还是什么样。
Hermes 的 Skill 会随着每一次使用自动迭代。
一个不会进步的技能包和一个越用越强的技能包,你用哪个?
对比结果很直白
维度
接 API
自己抓
费用
按次付费,月几百
0结果完整度
API 给你什么你吃什么
整个页面都是你的稳定性
等别人维护
自己说了算token 消耗
原始全文, 1万token/页
本地过滤, 1000字/页反爬风险
API 接口被封就完了
模拟人工,难封上手难度
填个 API Key 就行
需要配浏览器环境
说白了,接 API 是花钱买方便。自己抓是花时间省钱。
对于个人用户来说,这个选择不难做——环境装一次用一年,每个月省几百块钱,傻子都知道选哪个。
还能怎么玩
基础功能跑通之后,可以延展出很多花样:
定时监控
每天早上 9 点,Agent 自动搜一遍你关注的关键词,生成简报,发到 Telegram 或微信——没人会拒绝一份自动推送的行业日报。
竞品批量分析
搜索结果的 HTML 全存在本地,可以批量拉回来对比分析,不花额外的 API 费用。
多平台覆盖
一个脚本搜 Bing,换个参数搜 Google,再换个参数搜百度——模拟人工搜索的逻辑不变,换目标网站成本极低。
搜索 + 生成 PPT 一条龙
之前写过 html-ppt-skill,一个 Skill 能在 Claude / OpenClaw / Hermes 上跑通。
如果把搜索 Skill 和 html-ppt-skill 串起来——
一句话搞定:
"帮我搜一下 AI Agent 行业最新动态,翻 5 页,总结要点,生成一份 8 页的 PPT。"
搜索(自己抓)→ 过滤(本地)→ 总结(LLM)→ 生成 PPT(html-ppt-skill)→ 浏览器打开演示
全程不调用任何付费 API。
这就是我理解的"把 Agent 用透"——不是为了用 AI 而用 AI,而是让 AI 替你干脏活累活,你自己留着力气干决策的事。
说到底
接 API 是条不归路。今天用 Perplexity 挺好,明天涨价了。后天换 Brave,大后天 Brave 限制频率了。
你的 Agent 好不容易调通了的搜索能力,换个平台又要重新配。
自己抓不一样。
一套脚本,装一次,跑在所有 Agent 框架上。
OpenClaw 能用,Hermes 能用,Claude Code 也能用。不换代码,不换配置,不交 API 费。
而且数据留存在本地,不被任何第三方看见。你做调研、查竞品、跟踪行业——所有信息都在你自己的机器上。
这个账,算清楚的人已经在动手了。
AI Agent OpenClaw Hermes Claude Code 零成本搜索
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.