![]()
2026年3月的上海GDPS(全球开发者先锋峰会)上,一个让台下观众集体懵圈的新词被抛了出来——「Harness Engineer」(驾驭工程师)。
我听完 keynote 的第一反应是:这到底在说什么?
花了两天时间扒完资料,发现这个词不是凭空造出来的。它背后藏着一条清晰的进化线:Prompt Engineer → Context Engineer → Harness Engineer。三个角色,对应人类对AI协作理解的三次跃迁。
一句话串起来:从「怎么说」→「说什么」→「搭什么台子」。
第一阶段:Prompt Engineer,学说话的艺术
ChatGPT爆火那阵,所有人都在干同一件事——琢磨怎么问问题。
同一个问题,换种问法,答案质量天差地别。Prompt Engineering(提示工程)就是研究这个:角色设定、思维链、少样本示例、结构化输出……
原作者打了个精妙的比方:你穿越回封建王朝,想让皇帝批你的项目。
没经验的人冲进大殿:「陛下,我有个想法,盖个章呗。」
结果被拖出去打板子。
![]()
老练的外交官知道:先铺垫边疆战事吃紧,再提你的方案能省三成军费,最后说「臣斗胆献上一策」。Prompt Engineer 就是这个外交官——他不改变皇帝,也不改变朝堂规则,只研究怎么说话。
这套玩法在2023年遍地开花。但问题很快暴露:精心调教的提示词,换个模型就崩;任务一复杂,光靠说话技巧根本兜不住。
第二阶段:Context Engineer,管信息的进出
大模型的上下文窗口从4K飙到128K再到百万token,游戏规则变了。
性能瓶颈不再是「它能不能听懂」,而是「你喂了什么料进去」。Context Engineering(上下文工程)应运而生——专门设计和管理输入AI的信息:哪些塞进窗口,哪些过滤掉,怎么组织优先级。
打个比方:Prompt Engineer 是外交官,Context Engineer 就是军机处的文书。
皇帝每天批几百份奏折,你得决定:哪本先呈、哪本压后、哪本根本不该出现在御案上。再聪明的皇帝,被垃圾奏折淹了也白搭。
这个阶段,RAG(检索增强生成,Retrieval-Augmented Generation)、向量数据库、知识图谱开始成为标配。人们意识到:AI的输出质量,上限由输入信息的质量和结构决定。
但 Context Engineer 也有天花板。它管的是「单次对话里给什么信息」,当任务需要跨会话记忆、多工具协作、长期目标追踪时,单纯的信息管理就不够用了。
第三阶段:Harness Engineer,搭舞台的人
![]()
这就是GDPS 2026上抛出的新概念。
原作者的定义很直白:如果说前两个阶段是在优化「单次交互」,Harness Engineering 是在设计「整个协作系统」——包括工具链、记忆机制、反馈循环、多智能体编排。
继续用皇帝 analogy:Prompt Engineer 学说话,Context Engineer 管奏折,Harness Engineer 直接设计朝政运转的整套制度。
什么时候开内阁会议、六部怎么协同、错题本怎么归档、新科进士(新模型/新工具)怎么考核上岗……这些才是 Harness Engineer 的活儿。
具体技术栈包括:智能体框架(如LangChain、AutoGPT)、工作流引擎、持久化记忆层、评估与监控系统。核心能力从「写提示」变成了「架构设计」——让AI系统能持续学习、自我纠错、适应复杂业务场景。
三次跃迁,一条主线
把这三年串起来看,人类对AI的介入点一直在后移:
2023年,盯着屏幕改提示词,逐字斟酌;2024年,搭建知识库,设计检索策略;2025-2026年,开始画架构图,编排多智能体协作流。
这不是简单的分工细化,而是认知层级的跃迁。从「调教单个模型」到「设计协作系统」,本质是把AI从「工具」重新定位为「队友」。
原作者在文末抛了个开放问题:当 Harness Engineer 成为标配,下一个角色会是什么?
我的猜测是「目标工程师」(Objective Engineer)——专门定义AI系统的长期目标与价值对齐,解决「往哪走」的问题。但这只是猜测。
唯一确定的是:这张进化图谱还没画完。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.