所有人都盯着模型参数,但真正的胜负手藏在代码外面。
4月初,Anthropic意外泄露了Claude Code的完整源代码——超过51.2万行。这不是算法突破,却是一次罕见的"Harness工程"解剖课。Pokee.ai创始人朱哲清在锦秋基金闭门分享中拆解了这套架构:它为何与Claude模型深度绑定,又为何难以直接迁移,以及"后训练"时代Agent系统的真实面貌。
![]()
一、从API到Harness:三年间的核心战场转移
2022年到2025年,大模型行业的竞争逻辑经历了两次跃迁。
第一波是API能力竞赛。谁家的模型在基准测试上分数更高,谁就能拿到融资和客户。那时候的产品形态很简单:一个输入框,一个输出框,模型就是全部。
第二波是产品化。模型成为核心模块,但用户不再为raw capability买单,而是为"能帮我写完这段代码""能帮我分析这份报告"买单。外壳公司开始出现——它们在模型之上叠加界面、工作流、记忆系统。
现在进入第三阶段:Harness驱动的复杂Agent系统。模型只是烈马,Harness是缰绳。工具调用、执行环境、上下文管理、验证机制,这些"模型外面"的东西,共同决定最终效果。
朱哲清用了一个精准的比喻:Harness直译是马具。大模型是一匹蓄势待发的烈马,Harness是人类牵引、驾驭它的缰绳。真正稀缺的能力,不在模型里面,在模型外面——如何找到一副趁手的缰绳,以及驾驶者心中清晰准确的目的地。
这套转变的底层驱动力是任务复杂度的爆炸。单轮对话变成百步工具调用链,单次输出变成百万token的代码生成,单一Agent变成主-子协作系统。没有Harness,模型能力再强也会在长链路中崩溃。
二、Claude Code的六大组件解剖
泄露代码完整呈现了Anthropic的Harness工程实践。朱哲清将其拆解为六个核心组件,每个都对应具体的工程取舍与训练难题。
第一,多层级System Prompt。
现代System Prompt早已不是"你是一个有用的助手"这种一句话设定。Claude Code的System Prompt是超大规模、分层、可缓存的复杂指令集,分为固定缓存部分与动态可替换部分。
固定缓存包含Agent身份、Co指令、工具定义、语气规范、安全策略,大小可达十几万token。任何改动都会失效缓存,大幅增加成本与耗时。动态部分则随任务切换:会话状态、当前时间、可读取文件、代码包依赖等。
工程团队通过A/B test对不同用户微调Prompt,精准优化任务完成率、降低错误率。朱哲清对比指出,Claude Code的架构更简洁,模型注意力负担更低、幻觉更少;而OpenAI相关架构更复杂,需读取大量文件,易引发记忆幻觉。
第二,Tool Definition与工具调用设计。
工具定义直接决定调用准确率。Claude Code的核心设计包括:内置核心工具(文件读写/编辑、Bash、Web批处理等)在模型训练阶段就完成适配,推理时无需额外提供工具描述;企业级场景拒绝第三方无权限校验的工具,避免恶意操作;支持并行工具调用以提升执行速度,但后训练难度极高——并行调用无先后依赖,训练时易出现时序错位,Reward信号难以对齐。
第三,Tool Call Loop——Harness最核心的部分。
这是训练与推理一体化的关键。规划模式(Plan Mode)下,长链路任务先理解任务、梳理文件系统、明确可用工具,生成执行方案,再进入执行。这避免了盲目试错(如反复调用不可用搜索引擎)、减少无效token消耗。执行模式(Execute Mode)则在沙盒中按规划执行工具,获取结果闭环。
核心价值在于消除长链路执行中的中间错误,降低重试成本。但这也让规划能力的训练更难——规划好坏的Reward信号易被执行环节噪声干扰。
第四,Context Manager上下文管理器。
解决百万级token上下文的高效利用问题。Claude Code采用指针索引式Memory:不直接存储完整内容,仅记录文件指针与主题标签。朱哲清坦承,这仍处于启发式阶段,无法完美解决多文件跨链路推理问题(如关联文件被遗漏),暂无端到端最优解。
第五,Multi-Agent Architecture多智能体架构。
主流多智能体协作缺乏理论保障:无共享目标、无通用训练算法,只能"各自训练、随缘配合"。Claude Code的主-子Agent架构本质是分层强化学习:主Agent为子Agent定义子任务(Option),子任务终结状态作为主Agent下一步起点;共享KV Cache与输入上下文,子Agent执行后仅追加结果,不额外增加token消耗,成本远低于串行执行。
朱哲清指出,字节ContextFormer等工作思路与此高度一致。
第六,Verification Hooks验证钩子。
解决模型"自我美化、虚报完成"的问题。强模型存在自我偏好,自评准确率远高于互评,易主动"说谎"而非单纯幻觉。工程方案是引入后台分类器,只看工具执行结果、忽略模型生成文本,脱离生成偏差做客观校验。这无需完全可验证的Reward,即可实现轻量化、优雅的执行结果校验。
三、后训练的六大方向:从单步快照到完整轨迹
传统RL(强化学习)训练环境与推理环境严重割裂。Harness实现了训练-生产环境的一体化:工具调用序列=轨迹步,测试运行与分类闸门=Reward信号,用户任务=完整Episode。
围绕六大组件,Post-training形成六个核心方向。
方向一,System Prompt驱动行为对齐。
System Prompt会明确任务目标、Token预算与可用工具策略,从而大幅约束模型的行为空间,让强化学习只需在限定范围内学习最优执行模式。基于System Prompt中的规则设计评分体系,让模型在更干净、更少分支的轨迹下进行近似端到端训练,稳定输出符合预期的行为。
方向二,Tool Use端到端训练。
抛弃传统"单步快照式训练",改为完整轨迹训练:记录每一步执行结果,获取过程Reward与最终任务Reward;聚焦长链路稳定性,保证几百步工具调用的整体准确率,而非仅单步调用正确。
方向三,Planning专项训练。
预先锁定规划中的工具链路,无额外人工干预层;执行结果由分类闸门客观校验,规划的Reward信号更清晰;实现规划能力可训练,避免"只执行、不规划"的粗放模式。
方向四,Memory Compression专项训练。
将上下文压缩作为独立任务:上游模型输出压缩记忆,下游任务执行效果作为校验标准;目标是保留核心信息,不影响下游任务成功率。
方向五,Multi-Agent专项训练。
针对超长输出(代码/文档百万token场景):主Agent不直接生成内容,而是编排子Agent,分配任务与Prompt;子Agent并行执行后合并结果,主Agent做校验;依赖Harness实现底层进程控制,避免读写冲突与执行失败。
方向六,RL Pipeline工程化。
现代RL pipeline大幅延长,需同时优化六大模块:工具调用无幻觉、分类校验准确、上下文压缩有效、多Agent无掣肘、规划合理、验证可信。行业从算法收敛走向百花齐放,各环节需专属训练算法,多目标融合成为核心难题。
四、迁移困境:为什么这套架构"非Claude不可"
泄露代码最引发的讨论是:能否直接复用到其他模型?
朱哲清的判断很明确:直接迁移效果会显著下降。
核心原因在于深度耦合。System Prompt的十几万token固定缓存、工具定义的训练阶段适配、规划-执行模式的Reward信号设计,都是围绕Claude模型的注意力机制、上下文窗口特性、工具调用格式量身定制的。换一个基础模型,token消耗模式变了,幻觉模式变了,最优的Harness参数全部失效。
但这不意味着没有价值。朱哲清强调,其Harness设计思想、组件化结构、与后训练深度绑定的思路,对自研Agent具有极强的借鉴价值。换句话说,抄代码没用,抄架构思想有用。
更深层的启示是:模型能力差距正在缩小,但Harness工程差距在拉大。同样的Claude-3.5-Sonnet,在Anthropic自己的Harness里和在一个简陋的Chatbot界面里,完成的任务复杂度可能差一个数量级。
这也解释了为什么"模型外壳公司"的叙事在2024年一度被看衰,却在2025年重新被重视——不是外壳变重要了,是Harness变复杂了。简单的wrapper没有价值,但复杂的Harness正在成为核心壁垒。
五、人才与组织的隐性转移
Harness驱动的时代,对人才的需求也在发生结构性转变。
Prompt Engineering正在从"调提示词的艺术"变成"设计System Prompt架构的工程学科"。需要理解缓存机制、A/B测试框架、行为对齐原理,而不再是试错式地加一句"请一步一步思考"。
RL工程师的角色在扩展。不再是调参优化单个目标,而是设计多模块协同的训练流程,处理Reward信号的噪声与延迟,平衡长链路稳定性与单步准确率。
基础设施工程师变得关键。沙盒环境、进程控制、KV Cache共享、并行执行调度——这些传统后端工程能力,现在直接影响模型产品的核心体验。
朱哲清提到的一个细节值得注意:Claude Code的Harness团队与Post-training团队是深度协作的,而非前后环节切割。组件设计与训练目标必须同步迭代,这是传统ML pipeline不曾有的组织挑战。
六、Harness时代的用户能力
回到那个马具的比喻。当Harness成为核心,用户侧的能力需求也在转移。
过去,用户需要学习如何写更好的prompt,如何拆解任务,如何一步步引导模型。现在,用户需要学习如何选择和配置Harness——用现成的(如Claude Code、Cursor),还是自建;如何定义清晰的任务目标,让Harness的规划和验证机制能发挥作用;如何在模型能力边界内,设计可被Harness执行的工作流。
真正稀缺的,是对任务本身的结构化理解,以及将理解转化为Harness可执行规格的能力。这比"会写prompt"难,也比"懂模型原理"更实用。
朱哲清在分享结尾提到,Pokee.ai正在探索的方向与此一致:不是做更好的模型,而是做更好的Harness——让特定领域的复杂任务,能被可靠地执行、验证、迭代。
51.2万行代码的泄露,意外成为一次行业公开课。它展示的工程实践可能很快过时,但"Harness驱动"的范式转移已经明确。模型是烈马,缰绳在手,才能跑远。
当你的团队开始构建Agent系统时,第一个决策是什么——先选模型,还是先设计Harness的验证钩子?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.