「七周内从零冲到 95,600 个 GitHub 星标——这是 2026 年增速最快的智能体框架。」
这是 Nous Research 官方博客的开场白。不是融资新闻,不是大佬站台,纯粹是开发者用 star 投票投出来的数据。v0.10.0 在 4 月 16 日发布,核心就两件事:本地部署真正可用,浏览器自动化进主线。对于被 API 账单折磨过的开发者,这直接改写了「长任务」的经济账。
v0.10 的更新对两类人最关键:想零成本跑 Hermes 的开发者,以及工作流里需要浏览器自动化的团队。
安装方式没变,一条命令全平台通吃:
curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash本地部署:Ollama 集成实测
本地跑 Hermes 的理由很直接:如果你要执行长周期自主任务——比如 2 小时的编程会话、研究爬虫、数据管道——API 费用会快速累积。切到 Ollama 后,「让它一直跑着」的成本结构完全变了。
官方文档对本地部署的硬件要求写得很具体:推荐 7B 或 13B 模型,上下文窗口 64K+。窗口太短的模型会在任务中途截断,输出结果前后矛盾。
# 先装 Ollama(如果还没装)brew install ollama # macOS# 拉取兼容模型(llama3.1 原生支持 128K 上下文)ollama pull llama3.1:8b# 配置 Hermes 使用本地模型cat >> ~/.hermes/config.yaml << 'EOF'llm: provider: ollama model: llama3.1:8b base_url: http://localhost:11434 context_window: 65536EOF# 启动 Ollama 服务ollama serve &# 运行 Hermeshermes run "your task here"上下文窗口的硬约束
关键陷阱:你的模型上下文必须覆盖任务全长。Hermes 的自主循环会把观察历史、工具输出、计划状态全塞进 prompt。官方建议按「预期任务步数 × 每步平均 token」来估算,再留 30% 余量。
浏览器自动化这次进了主线,不再是实验性功能。v0.10 把 Playwright 集成从插件层下沉到核心,意味着:
- 不再需要单独安装浏览器驱动
- 截图、点击、表单填写、PDF 导出全在标准工具集里
- 支持多标签页会话,爬虫场景不用频繁重建上下文
实际用下来,浏览器工具的稳定性和本地 LLM 的响应速度是两大瓶颈。官方 benchmark 显示,llama3.1:8b 处理复杂网页的决策延迟在 3-8 秒,比 GPT-4o 慢一个数量级,但成本为零。
生产就绪?看场景
本地部署 + 浏览器自动化的组合,目前最适合两类任务:对延迟不敏感的后台作业,以及数据隐私要求极高的内部流程。如果需要实时交互或高精度网页理解,云端 API 仍是更稳妥的选择。
9.56 万星标背后,是开发者对「可控成本」和「数据不出境」的真实需求。v0.10 没解决所有问题,但它把本地智能体从 demo 级别拉到了能跑通生产任务的水平线。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.