您有没有过这种疑问?
同样是AI,有的能帮您稳稳记住“每周三买降压药”,还会提前提醒。
可有的转头就忘了您刚说的 “别推荐太辣的菜谱”,照样给您发一堆重口味菜名。
其实这背后,藏着一个给AI“管记性” 的关键本事!
简单说,这活儿就像帮AI打理它的 “工作笔记本”,还分了写入、选择、压缩、隔离四种办法。
但话说回来,这些办法真就那么管用吗?
这个疑问其实挺一针见血的。
就像咱们记笔记,如果什么都记,时间长了可能就懒得记在脑子里了。
但AI和人不一样,它的 “推理” 本来就是基于数据和上下文的。
比如Anthropic的多智能体研究员项目,把计划存在 “便笺” 里,不是因为AI懒,而是上下文窗口有大小限制。
超过20万个Token就会被截断,要是重要计划没存下来,后面的任务就没法继续了。
而且 “便笺” 更像给AI找了个“小本子”,让它不用反复记重复信息,反而能把精力放在新的推理上。
比如处理一个长期项目,AI不用每次都重新想 “第一步该干嘛”,看一眼 “小本子” 就能接着做,反而提高效率,不会越用越笨。
再说说 “选择上下文” 里的记忆选择。
有人可能会担心,AI选记忆的时候,万一选不准怎么办?就像之前 ChatGPT 把用户位置错放进图片里,这不是添乱吗?
这个问题确实存在,而且挺致命的。
现在AI用的Embeddings(嵌入)或者知识图谱,虽然能帮AI选相关记忆,但确实没法做到100%准确。
不过咱们也不能因为这点就否定 “选择” 的作用。
要是AI不选,把所有记忆都塞进上下文窗口,要么超容量,要么有用的信息被淹没在一堆没用的内容里,反而更麻烦。
就像咱们找文件,要是不分类不筛选,把所有文件都摊在桌上,想找一份合同得翻半天。
现在虽然筛选偶尔出错,但大部分时候能快速找到需要的,总比全堆在一起强。
而且现在技术也在改进,比如有些AI会加个 “重排序” 步骤,把选出来的记忆再排一遍优先级,出错的概率也在慢慢降低。
可能有人会质疑把上下文压缩,摘要,会不会把重要信息弄丢了?
就像咱们把一篇长文章缩成几句话,很容易漏关键内容啊!
这个担心太正常了,毕竟 “压缩” 本身就是取舍的过程。比如Claude Code超过上下文窗口95%时会自动压缩,要是压缩得不好,确实会影响后续任务。
但现在的压缩不是随便删内容,要么用 “递归摘要”,一层一层提炼核心,要么用 “分层摘要”, 按任务阶段分开总结,尽量保留关键信息。
更重要的是,压缩是没办法的办法!
如果不压缩,上下文超了,AI直接没法继续工作,压缩了虽然有风险,但至少能让任务继续,而且现在还会用微调过的模型专门做压缩,就是为了减少漏信息的情况。
就像咱们整理旧照片,要是照片太多放不下,只能挑重要的扫描存档,虽然可能漏几张,但总比所有照片都放着发霉强。
最后说“隔离上下文”里的多智能体。
有人可能会疑惑,弄一堆子智能体,每个都有自己的上下文,会不会协调不过来?而且听说 Anthropic 的多智能体比普通聊天多花 15 倍 Token,这不浪费钱吗?
这个疑问也说到了点子上,多智能体确实有协调和成本的问题。
比如一个团队里要是人太多,各干各的不沟通,反而会出错,AI 的子智能体也一样,要是没规划好谁做什么,很容易乱套。
但多智能体的好处也很明显,“专人专事”!
比如处理一个复杂的科研任务,有的子智能体专门查文献,有的专门分析数据,有的专门写报告,每个子智能体的上下文只装和自己任务相关的内容,不会被其他信息干扰,反而比一个智能体干所有事效率高。
至于Token成本高,现在也在想办法优化,比如在子智能体交接知识的时候做摘要,减少传递的内容,慢慢把成本降下来。
就像公司里虽然多雇人会多花钱,但要是每个人都能高效完成专业工作,最后项目做得又快又好,长期来看反而划算。
这么一圈聊下来,其实 “上下文工程” 的四种方法都不是完美的,各有各的问题,但也各有各的必要。
它不是给AI“走捷径”,而是在AI的能力限制(比如上下文窗口大小、Token成本)和任务需求之间找平衡。
就像咱们居家过日子,收纳、整理、分类这些事也不是完美的,但要是不做,家里会乱得没法住。
AI的 “上下文工程” 也是一样,虽然有需要改进的地方,但现在已经是帮 AI 高效工作的核心办法,而且随着技术进步,那些小问题也会慢慢解决。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.