网易首页 > 网易号 > 正文 申请入驻

微调已死?Agentic上下文工程登场,无需微调实现模型进化

0
分享至

来源:市场资讯

(来源:机器之心Pro)


机器之心报道

编辑:Panda

是什么,让一位 AI 自动化架构师发出了「微调已死」的感慨?


一篇来自斯坦福大学、SambaNova、UC 伯克利的论文近日引发了广泛讨论。他们提出了一种名为Agentic Context Engineering(智能体 / 主动式上下文工程)的技术,让语言模型无需微调也能实现自我提升!


一切要从上下文适应说起

当代基于大型语言模型(LLM)的 AI 系统(如 LLM 智能体与复合式 AI 系统)越来越依赖于上下文自适应(context adaptation)

具体来说,上下文自适应是在模型训练完成后,通过在输入中引入更明确的指令、结构化的推理步骤或领域特定的输入格式,从而提升模型性能。很显然,这与直接修改模型参数的微调方法大不相同。

我们知道,上下文构成了众多 AI 系统组件的基础,包括:引导下游任务的系统提示词、承载既往事实与经验的记忆机制以及用于减少幻觉、补充知识的事实证据。

而与参数更新相比,通过上下文进行适应具有若干核心优势:上下文对于用户与开发者而言更具可解释性;能够在运行时快速整合新知识;并且可以在复合系统的多个模型或模块之间共享。与此同时,长上下文语言模型的进展以及高效推理机制(如 KV 缓存复用)也使基于上下文的方法愈发具有现实可行性。因此,上下文自适应正逐渐成为构建高性能、可扩展且具备自我改进能力的 AI 系统的核心范式。

然而,现有上下文自适应方法仍存在两大局限。

其一是「简约偏置」(brevity bias):许多提示词优化器倾向于追求简洁、普适的指令,而忽略了知识的充分积累。例如,GEPA 将简短视为优点,但这种抽象化可能遗漏实践中至关重要的领域启发式规则、工具使用指南或常见错误模式。此类优化目标虽能在部分指标上奏效,却常无法捕捉智能体或知识密集型应用所需的细节策略。

其二是「上下文塌缩」(context collapse):依赖 LLM 对整体提示进行重写的方式,往往会随着时间推移退化为更短、更模糊的摘要,从而造成性能骤降(见图 2)。在诸如交互式智能体、领域特定编程、以及金融或法律分析等任务中,系统性能依赖于保留细致的、任务相关的知识,而非将其压缩掉。


随着智能体与知识密集型推理对可靠性的要求不断提高,近期研究逐渐转向构建「信息饱和」的上下文,也就是借助长上下文 LLM 的进展来容纳更多潜在有用信息。

但这个斯坦福大学、SambaNova、UC 伯克利联合团队认为:上下文不应是简短的摘要,而应成为全面、动态演化的「作战手册(playbooks)」—— 内容详实、包容、富含领域洞见。与人类不同,LLM 在提供长而细致的上下文时表现更好,并能自主提炼关键信息。因此,与其压缩领域启发与策略,不如将其保留,让模型在推理时自行决定哪些信息最为重要。

在这一见解的基础上,主动式上下文工程(ACE)应运而生。

主动式上下文工程(ACE)

该团队提出的 ACE(Agentic Context Engineering) 框架能够实现可扩展且高效的上下文自适应,并且离线(如系统提示优化)与在线(如测试时记忆自适应)场景都适用。

与以往将知识蒸馏为简短摘要或静态指令的方法不同,ACE 是将上下文视为不断演化的作战手册,能够持续积累、蒸馏与组织策略。

基于 Dynamic Cheatsheet(参阅 arXiv:2504.07952)的 agentic 架构,ACE 引入三种协作角色:


这一设计模仿了人类的学习方式,即「实验–反思–整合」,同时可避免让单一模型承担所有职能所导致的瓶颈。

为应对前文提到的简约偏置与上下文塌缩问题,ACE 引入了三项关键创新:

在工作流程上,生成器首先会针对新任务生成推理轨迹,揭示出有效策略与常见陷阱;反思器对这些轨迹进行评析,提炼经验并可多轮迭代优化;整编器再将这些经验整合为紧凑的增量条目(delta entries),并通过轻量的、非 LLM 的逻辑机制合并至现有上下文中。

由于更新项是局部化的,多个增量可并行合并,从而实现批量适应与扩展。ACE 还支持多轮(multi-epoch)自适应,使相同任务可被多次重访以持续强化上下文。

增量式 Delta 更新

ACE 的核心设计理念是:将上下文表示为结构化的条目集合(bullets),而非单一的整体提示词

每个条目包含两部分:

在解决新问题时,生成器会标记哪些条目起到了帮助或误导作用,从而为反思器提供改进依据。

这种条目化设计带来了三大特性:

ACE 不会重写整个上下文,而是生成紧凑的增量上下文(delta contexts):由反思器提炼、整编器整合的一小组候选条目。

这种方式既避免了整体重写的高计算成本与延迟,又能保持旧知识并持续吸收新见解。随着上下文的增长,该机制为长周期或高知识密度的任务提供了必要的可扩展性。

Grow-and-Refine

在持续增长的基础上,ACE 通过定期或延迟蒸馏来确保上下文保持紧凑与相关性。

在 Grow-and-Refine 过程中,新条目会被追加到上下文中,而已有条目则通过元数据更新(如计数器递增)进行原地修订。

去重步骤则通过语义嵌入比较条目相似度来消除冗余。

该过程可在每次增量更新后主动执行,也可在上下文窗口超限时被动触发,具体取决于延迟与精度要求。

增量更新与 Grow-and-Refine 机制共同维持了上下文的动态可扩展性与高相关性。

ACE 的效果如何?

该团队进行了实验,对新提出的方法进行了验证。

具体来说,他们在两类任务上进行了实验:智能体类任务与领域特定任务。

而作为对比的基线方法则包括以下几种:

相比之下,ACE 在相同基模型与运行条件下,通过其「生成–反思–整合」的主动上下文工程框架,实现了更高的准确度、更快的适应速度以及更低的计算成本。

实验下来,ACE 表现优异,下图给出了其整体表现 —— 毫无疑问地优势明显。


首先,ACE 确实能实现高性能、自我改进的智能体。


通过动态优化输入上下文,ACE 实现了智能体的自我改进。在 AppWorld 基准上,ACE 在无需标注数据的情况下,仅凭执行反馈就能提升性能高达 17.1%,使开源小模型的表现接近最强商用系统。

下图展示了在 AppWorld 基准上,ACE 生成的上下文示例(部分)。可以看到,ACE 生成的上下文包含了详细的、领域特定的洞见,以及可直接使用的工具与代码,构成了一个面向大型语言模型应用的完整「作战手册」。


同时,ACE 也能大幅提升在领域特定任务上的表现:在复杂的金融推理任务中,ACE 通过构建含丰富领域知识的「作战手册」,平均性能提升 8.6%。


该团队也通过消融实验验证了其新设计的有效性,结果表明:反思器与多轮蒸馏等组件对性能提升至关重要。


最后,该团队也分析了 ACE 的成本与延迟,发现这两个指标都有显著下降:ACE 通过增量更新与轻量化合并机制,使适应延迟平均降低 86.9%,并减少了生成消耗。


至于 ACE 究竟能否做到让「微调已死」,还需要读者您自己判断,毕竟该研究也在网上遭到了一些批评。


结语

该团队总结道:「长上下文 ≠ 更高 Serving 成本。」尽管 ACE 生成的上下文比 GEPA 等方法更长,但并不会导致推理成本或显存使用线性增加。

现代 serving 基础设施已通过 KV 缓存复用、压缩与卸载等机制,对长上下文负载进行了优化,使得常用的上下文片段可被缓存,避免重复计算。随着系统层优化的持续进步,长上下文方法(如 ACE)的实际部署成本将进一步下降。

同时,该团队还分析了这项研究对在线与持续学习带来的启示。

在线学习与持续学习是应对分布漂移(distribution shifts)与训练数据有限性的重要方向。ACE 为传统模型微调提供了一种灵活且高效的替代方案:更新上下文通常比更新模型参数更低成本,同时具备可解释性,还可能实现选择性遗忘(selective unlearning)—— 这可用于隐私保护、合规以及剔除错误或过时信息。

该团队认为,ACE 未来有望成为推动持续学习与负责任学习的核心机制之一

你觉得这项技术的潜力如何?

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
18年前,揭露“三鹿奶粉”的上海记者简光洲,最后被报复了吗?

18年前,揭露“三鹿奶粉”的上海记者简光洲,最后被报复了吗?

毛豆何时归
2026-02-22 07:19:18
伊朗导弹越打越少,美以却开始慌了?第三天战况:谁先顶不住?

伊朗导弹越打越少,美以却开始慌了?第三天战况:谁先顶不住?

瞳眼天下
2026-03-03 10:47:04
近期,一名中国男子去泰国玩,花6000泰铢找21岁女孩,悲剧发生了

近期,一名中国男子去泰国玩,花6000泰铢找21岁女孩,悲剧发生了

鲸探所长
2026-03-01 14:38:25
吴桂贤为何好命?大起大落的人生之路,守住良知底线

吴桂贤为何好命?大起大落的人生之路,守住良知底线

混沌录
2026-01-29 23:47:04
回顾:上海杀妻案朱晓东被处死刑,狱中对妻子的评价,让人胆寒

回顾:上海杀妻案朱晓东被处死刑,狱中对妻子的评价,让人胆寒

谈史论天地
2026-02-11 13:30:11
中美战争可能有多大?22年前美学者已预测,就怕中国一项能力变强

中美战争可能有多大?22年前美学者已预测,就怕中国一项能力变强

今墨缘
2025-11-23 20:26:27
10天一万公里,雷军口中的“奇迹”,为何引起质疑?

10天一万公里,雷军口中的“奇迹”,为何引起质疑?

A活着
2026-03-02 20:13:55
在学校发生的八卦能有多炸裂?网友:怀孕率比升学率高,不夸张

在学校发生的八卦能有多炸裂?网友:怀孕率比升学率高,不夸张

带你感受人间冷暖
2026-02-05 00:30:08
苹果宣布老款 iPhone 大降价,二手价格崩盘!

苹果宣布老款 iPhone 大降价,二手价格崩盘!

XCiOS俱乐部
2026-03-03 11:54:06
越是大佬的商战博弈,越是像小孩子捣蛋一样!网友:大人都办不上来

越是大佬的商战博弈,越是像小孩子捣蛋一样!网友:大人都办不上来

夜深爱杂谈
2026-01-27 18:34:06
如果伊朗倒下,中国将受到重创?别急,中国已备好三条退路

如果伊朗倒下,中国将受到重创?别急,中国已备好三条退路

荷兰豆爱健康
2026-03-03 19:32:58
县城险象环生,你千万不要被表面的平静给蒙蔽了。

县城险象环生,你千万不要被表面的平静给蒙蔽了。

流苏晚晴
2025-10-31 20:55:43
7亿成本,揽11.5亿票房,《镖人》回本难,吴京豪掷3亿,输了票房赢了口碑

7亿成本,揽11.5亿票房,《镖人》回本难,吴京豪掷3亿,输了票房赢了口碑

小椰的奶奶
2026-03-03 14:40:06
伊朗外长这番话,可能暗示一个大问题

伊朗外长这番话,可能暗示一个大问题

观察者网
2026-03-02 19:11:48
换帅血亏!阿隆索28场输5场,阿韦洛亚12场就输4场,球迷看懵了!

换帅血亏!阿隆索28场输5场,阿韦洛亚12场就输4场,球迷看懵了!

田先生篮球
2026-03-03 11:48:51
美军三架F-15E被击落,到底谁干的?

美军三架F-15E被击落,到底谁干的?

枢密院十号
2026-03-03 09:41:25
靠100个车位的“睡后收入”?巴黎男子提前退休!

靠100个车位的“睡后收入”?巴黎男子提前退休!

新欧洲
2026-02-17 19:38:49
温州知名酒店曝出事

温州知名酒店曝出事

温百君
2026-03-02 19:37:41
美伊战争:美元回归,黄金失落

美伊战争:美元回归,黄金失落

智本社
2026-03-03 19:00:35
弃足从戎?曝33岁国米旧将决定回伊朗参军:放弃高薪 跟美国人死磕

弃足从戎?曝33岁国米旧将决定回伊朗参军:放弃高薪 跟美国人死磕

风过乡
2026-03-03 17:15:39
2026-03-04 10:31:00
新浪财经 incentive-icons
新浪财经
新浪财经是一家创建于1999年8月的财经平台
2339812文章数 5667关注度
往期回顾 全部

科技要闻

新MacBook Pro首发M5 Pro/Max芯片 17999起

头条要闻

牛弹琴:伊朗选出新的最高领袖 一个更不可能妥协的人

头条要闻

牛弹琴:伊朗选出新的最高领袖 一个更不可能妥协的人

体育要闻

35轮后积分-7,他们遭遇史上最早的降级

娱乐要闻

谢娜霸气护夫:喊话薛之谦给张杰道歉

财经要闻

伊朗,正在打破特朗普的幻想

汽车要闻

第一梯队辅助驾驶加持 iCAR V27定档3月13日上市

态度原创

教育
时尚
家居
旅游
亲子

教育要闻

高校分类改革,对考生和家长意味着什么?

今年春天的半裙,很“牛”!

家居要闻

万物互联 享科技福祉

旅游要闻

云南铁路部门多举措护航踏春赏花游

亲子要闻

金马贺岁,愿你策马扬鞭,万事如意步步高!

无障碍浏览 进入关怀版