来源:市场资讯
(来源:石臻说AI)
![]()
石臻说AI
编辑:石臻
导读: 2026 年 2 月 28 日,字节跳动开源的 DeerFlow 2.0 冲上 GitHub Trending 第一。一个月不到,Star 数飙到 48k+,Fork 5700+。一个中国大厂的开源 Agent 项目,为什么能让全球开发者集体高潮?
我想把 DeerFlow 2.0 拆开来看——它到底做了什么,为什么做对了,以及你能不能真的用起来。
![]()
一、从一个 Deep Research 工具,到「给 AI 一台电脑」
DeerFlow 1.x 时代,它的定位很简单:Deep Research(深度研究)。你给它一个问题,它帮你搜资料、整理、出报告。市面上这类工具不少,OpenAI 的 Deep Research、Perplexity 的 Pro Search 都是。
但社区拿它干了什么?有人用它搭数据管线,有人做 PPT,有人搞自动化内容生产。全是开发者的野路子,DeerFlow 1.x 压根没设计过这些场景。
字节团队从中读到了一个信号:DeerFlow 不只是个研究工具,它是一个 Agent 的运行时——一个 harness。
所谓 harness,就是「控制台」「工位」——不光给 AI 一个大脑,还给它手脚、工具箱、工作台。DeerFlow 2.0 从零重写,核心定位变成了:Super Agent Harness,让 Agent 能在一个完整的执行环境里,自主完成从几分钟到几小时的复杂任务。
说白了,1.x 是个研究员,2.0 是个包工头——带着一帮小弟、工具、图纸、工作记忆,去工地干活。
二、三件套:分身、工位、记性
DeerFlow 2.0 的核心能力可以拆成三块,X 上有人总结得很到位——「AI 三件套」:
![]()
1. 无限分身(Sub-Agents)
复杂任务拆解是 Agent 框架的老大难问题。DeerFlow 的做法是让 Lead Agent 按需派生子 Agent,每个子 Agent 有独立的上下文、工具集和终止条件。
底层实现基于 LangGraph——LangChain 团队出的有状态图执行框架。每个 Agent 是图中的一个节点,节点之间的边定义了控制流和数据流。Lead Agent 是入口节点,它通过条件边(conditional edges)决定往哪个子节点路由,子节点执行完再汇回 Lead Agent 做汇总。
具体执行模式有四档:
模式速度子Agent适用场景Flash最快不启用简单问答、快速搜索Standard中等不启用常规任务Pro(Planning)较慢不启用需要规划步骤的复杂任务Ultra最慢启用多步骤长时间任务
举个实际场景:你让它做一份行业研究报告,用 Ultra 模式。Lead Agent 先做任务规划——「搜索 A 领域」「搜索 B 领域」「整理数据」「写报告」「做 PPT」——然后分派给子 Agent 并行执行。每个子 Agent 执行时 recursion_limit 默认设到 100(可在 config.yaml 调整),防止无限循环。子 Agent 完成后汇报结构化结果,Lead Agent 综合成最终输出。
关键设计:子 Agent 之间上下文隔离。每个子 Agent 只能看到 Lead Agent 分配给自己的任务上下文,看不到其他子 Agent 的中间状态。这解决了多 Agent 系统最常见的「信息串台」问题。
![]()
2. 物理工位(Sandbox)
这是 DeerFlow 和纯对话式 Agent 最本质的区别。
每个任务跑在一个隔离的 Docker 容器里,有完整的文件系统:
/mnt/user-data/├── uploads/ ← 你上传的文件├── workspace/ ← Agent 的工作目录└── outputs/ ← 最终产出物/mnt/skills/├── public/ ← 内置 Skill└── custom/ ← 自定义 SkillAgent 可以在里面读文件、写代码、装依赖、跑 bash 命令、查看图片。沙箱通过 Gateway API 和宿主机通信——Agent 调用工具的请求先经过 Gateway 审计,再转发到沙箱执行。
三种沙箱模式:
模式隔离级别适用场景本地执行无隔离开发调试Docker 容器进程级隔离日常使用(推荐)Kubernetes Pod容器级调度生产环境多租户
Kubernetes 模式需要一个独立的 Provisioner 服务——make docker-start 会根据 config.yaml 里 sandbox.use 的配置自动判断是否启动 Provisioner。Provisioner 负责按需创建和销毁 Pod,管理资源配额。
X 上有人评论:「这是 chatbot with tools 和 agent with computer 的区别。」说得挺到位的。
![]()
3. 长期记性(Memory)+ 上下文工程
大多数 Agent 关掉对话框就失忆了。DeerFlow 有长期记忆系统,能记住你的偏好、历史工作流、常用配置。
但更关键的技术是 Context Engineering(上下文工程)。长时任务最怕的不是 Agent 不会做,而是做了一半上下文爆了——token 窗口塞满,前面的信息被截断,后面的任务就全乱套了。
DeerFlow 的解法:
- 已完成子任务的摘要压缩:子 Agent 完成后,只把关键结论传回 Lead Agent,不传全部中间过程
- 中间结果卸载到文件系统:大块数据(搜索结果、代码文件)写入沙箱的 /mnt/workspace/,需要时再按需读取
- 上下文窗口动态管理:根据当前模型的 max_tokens 自动调整保留策略
这让 DeerFlow 能处理需要数小时的长时间任务——一个研究报告可能涉及十几轮搜索、数十个子 Agent 调度,但 Lead Agent 的上下文始终保持精简。
配合 LangSmith 的集成,你可以实时看到每一步的 token 消耗和上下文大小,方便调试长任务中的瓶颈。
![]()
三、Skill + MCP 生态:为什么说它「几乎能完成任何复杂任务」
README 里写的是 "researches, codes, and creates"——研究、编码、创作。听起来很大,但 DeerFlow 2.0 的 Skill 系统确实给了它这个底气。
什么是 Skill
一个 Agent Skill 就是一个结构化的能力模块——一个 Markdown 文件定义工作流、最佳实践和参考资源。DeerFlow 内置了这些 Skill:
类别内置 Skill研究深度搜索、信息整合报告自动生成研究报告演示PPT / 幻灯片创建网页网站搭建与部署创作图片和视频生成
按需加载,不是全家桶
Skill 是渐进式加载的——任务需要什么才加载什么,不会一口气把所有 Skill 塞进上下文。这对 token 敏感的模型(尤其国产模型)很友好。
MCP Server 接入
自定义 Skill 放在 /mnt/skills/custom/ 目录下,格式和内置 Skill 一样。DeerFlow 还支持通过 MCP Server 接入外部工具——这是 Anthropic 推出的 Model Context Protocol 标准,正在成为 Agent 工具接入的事实规范。
MCP Server 的配置也在 config.yaml 里,支持 HTTP/SSE 两种传输协议,还能配 OAuth 认证(client_credentials 和 refresh_token 流程都支持)。比如接入 Tavily 搜索、InfoQuest(字节自家的智能搜索爬虫),或者你自己的内部 API——只要实现 MCP 协议就能无缝接入。
Claude Code 联动
一个挺有意思的功能:DeerFlow 提供了 claude-to-deerflow Skill,让你在 Claude Code 终端里直接跟 DeerFlow 交互——发研究任务、查状态、管理会话,不用切窗口。安装就一行命令:
提示词参考:
npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow
![]()
四、3 条命令跑起来
DeerFlow 2.0 的部署体验做得不错,Docker 一把梭:
提示词参考:
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow && make config
make docker-init && make docker-start
打开 localhost:2026 就能用。
模型配置是核心步骤。DeerFlow 基于 LangChain + LangGraph,理论上支持所有 OpenAI 兼容的模型。配置在 config.yaml 的 models 数组里,每个模型条目长这样:
models: - name: gpt-5.4 display_name: GPT-5.4 (Codex CLI) use: deerflow.models.openai_codex_provider:CodexChatModel model: gpt-5.4 supports_thinking: true supports_reasoning_effort: trueuse 字段指定 LangChain 的 Chat Model 类路径。标准 OpenAI 兼容模型用 langchain_openai:ChatOpenAI,DeerFlow 还内置了两个特殊 Provider:
- CodexChatModel:走 Codex CLI 的本地认证(~/.codex/auth.json),不走 API Key
- ClaudeChatModel:走 Claude Code 的 OAuth 认证,支持 macOS Keychain 和多种凭证路径
另外还有一个 use_responses_api: true 的选项,让模型走 OpenAI 的 /v1/responses 端点而不是传统的 Chat Completions。
官方推荐三个国产模型:豆包 Seed 2.0 Code、DeepSeek v3.2、Kimi 2.5。这些模型在中文场景下性价比很高,配合 DeerFlow 的渐进式 Skill 加载,token 消耗可控。
还有一个「一行提示词安装」的设计——你可以直接让 Claude Code / Codex / Cursor 等 coding agent 帮你搭建:
提示词参考:
Help me clone DeerFlow if needed, then bootstrap it for local development by following https://raw.githubusercontent.com/bytedance/deer-flow/main/Install.md
IM 渠道集成也是 2.0 的新功能。支持 Telegram、Slack、飞书三个平台——在聊天窗口直接给 DeerFlow 下任务,不用开网页。飞书的配置尤其值得关注,国内企业环境用起来很方便。
![]()
五、47k Stars 不是虚火,但也要清醒
为什么火
DeerFlow 2.0 的火爆有几个真实因素:
第一,时机对了。 AI Agent 从概念验证走向实际生产,2026 年初是转折点。市场上缺的不是又一个聊天机器人,而是一个能让 Agent 真正「干活」的运行时。DeerFlow 的 Harness 定位正好卡在这个需求上。
第二,架构正确。 Sub-Agent + Sandbox + Memory 的组合,是目前长时任务 Agent 最成熟的架构模式。DeerFlow 不是第一个这么做的,但它是开源项目里做得最完整的之一。
第三,字节的品牌效应。 字节跳动开源,自带关注度。加上推荐国产模型(豆包、DeepSeek、Kimi),在国内 AI 圈形成了「国产模型 + 国产框架」的叙事,自带流量。
但也别太兴奋
X 上的讨论里,有些清醒的声音值得听:
有人说「框架开源 ≠ 你能跑起来,Demo 惊艳 ≠ 生产稳定,多 Agent 协作 ≠ 简单串起来」。
还有人说 DeerFlow 被称为「中国版 OpenClaw」——这话既是夸也是压力。开源项目的生命力看的是长期维护和社区生态,不是首发几天的 Star 数。
DeerFlow 2.0 是从零重写的,和 1.x 没有共享代码。这意味着它的生产验证才刚开始,社区的实际踩坑经验还需要时间积累。
我的判断
DeerFlow 2.0 是目前开源 Agent Harness 里最有想象力的项目之一。它的架构设计思路是对的——给 Agent 一个完整的执行环境而不是一堆 API 调用。
如果你在做 AI Agent 相关的产品或者内部工具,值得花一个下午搭起来玩玩。但生产环境使用?建议再观察两个月社区踩坑报告。
一句话总结: DeerFlow 2.0 不是又一个 Agent 框架,而是一个给 Agent 准备好的「操作系统」——有工位、有工具、有记性、有分身。字节这步棋,走得挺有章法。
- DeerFlow GitHub 仓库:https://github.com/bytedance/deer-flow
- DeerFlow 官网:https://deerflow.tech/
- DeerFlow 中文文档:https://github.com/bytedance/deer-flow/blob/main/README_zh.md
- BytePlus InfoQuest:https://docs.byteplus.com/en/docs/InfoQuest/What_is_Info_Quest
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.