去年我用Claude写了47份产品文档,重复解释我是谁这件事,做了47遍。
不是换工具的问题。是每次新开对话、切项目、换工作流,都得把「我做什么的」「输出要什么风格」「哪些背景稳定」重新喂一遍。像搬家时反复打包同一箱书。
作者David Sparks管这叫「上下文重复税」(Context Repetition Tax)。他算过账:每次重建语境平均消耗3-5轮对话,按一天开5次新对话算,一年白扔300多次交互。这还没算模型猜错方向后你返工的时间。
更隐蔽的损耗是质量滑坡。
每次从零开始,模型拿到的是残缺画像。你漏说偏好,它瞎补;你忘了提约束,它踩线。前几轮永远在纠偏,真正干活的比例被稀释。
Sparks的解法不是等OpenAI或Anthropic做全局记忆——他嫌那玩意儿黑箱、不可控、换工具就清零。他自己搭了一层「便携语境层」,把个人上下文从任何单一产品里剥出来,攥手里。
「记忆」的幻觉:厂商画的饼 vs 用户的痛
行业叙事把AI记忆讲成「跨会话持久化」,好像技术一到位,问题就消失。
Sparks的体验戳破了这个气泡。他在Claude里用了整年,同一账户、同一产品,语境碎得七零八落:新对话清档、项目隔离、工作流互相不认识。所谓的「记忆」是补丁叠补丁,不是真的懂你。
厂商的困境也真实。全局记忆意味着存什么、存多久、怎么召回,全是雷区。用户A想让AI记住离婚细节做情感咨询,用户B只想让它忘掉上周的代码草稿。一刀切的方案,两边得罪。
但用户的痛更急。Sparks的描述很具体:「一个好线程变成死胡同,有用的部分从没被拉进任何耐久的东西里。」你花两小时调教出的完美语境,关窗口即焚。
便携语境层:把「你是谁」从SaaS里赎出来
Sparks的架构不复杂,但反直觉。他不追求「让AI记住我」,而是「让我能随时把完整的我递给AI」。
核心就三层:
1. 稳定身份卡:用结构化文档存「不变的东西」——职业身份、写作风格偏好、长期项目背景。不是扔给AI的提示词,是给人看的源文件,随时手动更新。
2. 动态上下文包:按场景拆分的可变信息。本周优先级、当前项目状态、临时约束条件。每次开新对话,按需组装,像搭乐高。
3. 会话种子模板:预制的「开场白」,把身份卡+上下文包压缩成模型能消化的格式。不是越长越好,是结构清晰、优先级分明。
这套东西跑在任何工具之上。今天Claude,明天Gemini,后天某个开源模型,「你」是可迁移的。Sparks的原话:「我停止依赖应用内AI记忆,建了一个我真正能控制的层。」
为什么用户宁愿自己折腾?
厂商不是没试过。ChatGPT的「自定义指令」、Claude的「项目」功能,都是往这个方向摸。但边界很硬:格式固定、容量有限、换产品归零。
Sparks的方案本质是用户侧的中间件。成本是手动维护,收益是彻底的主权。更新哪条信息、什么时候遗忘、怎么格式化,全自己定。
这暴露了一个产品设计的裂缝:AI工具的「个性化」在做加法——更多记忆槽、更长上下文窗口——但用户要的是减法。不是记住一切,是记住对的,且能带走。
Sparks的实验还没完。他在文章里留了个钩子:这套便携层怎么跟自动化工具联动,怎么让「组装上下文」本身也自动化,是下一步。
你现在用AI工具,一个月要重新介绍自己几次?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.