周三下午,一个程序员第17次向AI助手解释公司的代码规范。同样的接口命名规则,同样的错误处理模式——每次对话从零开始,每次都要付费重新"理解"。
这不是个例。RAG(检索增强生成)把知识库变成了开卷考试:Agent带着"参考书"进考场,考完就忘。真正决定Agent上限的,是记忆架构——它能不能像人一样学习、整理、进化知识。
![]()
OpenAI联创Andrej Karpathy最近开源了LLM Wiki,用一个Markdown文件解决了核心问题:如何把零散信息变成AI能推理的知识系统。YC CEO Garry Tan的GBrain项目也在走同一条路,但更强调工程严谨性。
人类擅长收集信息,却 terrible 于维护。浏览器收藏夹里的"稍后阅读"、桌面上的PDF堆——都是数字化石。企业和个人面临双重崩塌:知识随产品政策过期失效,多维关系的手工维护成本高昂。
Prompt Engineering教模型"做什么任务"。Knowledge Engineering教模型"该知道什么"和"怎么运用所知"。LLM Wiki的颠覆在于:不让模型每次都从原始文档重新发现答案,而是维护一份持续更新、互相链接、能识别矛盾的知识wiki。
知识不再是静态池塘,而是活的生命体。代码工作流里,我们要的不只是语法正确,更是风格惯例——"接口优先"还是"原型优先"、偏好的框架、异常处理习惯。这些无法靠单次检索获得,只能靠结构化记忆积累。
RAG把书带进考场。知识工程教会Agent深度学习、做笔记、每周进步。生产环境的杠杆效应,从这里开始分化。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.