在人工智能领域,记忆对于AI Agent的智能性和实用性至关重要。本文深入探讨了AI Agent的短期记忆和长期记忆的区别及其协同工作的机制。
———— / BEGIN / ————
在人工智能领域,一个AI Agent可以被理解为一个能够感知环境、进行推理并执行行动以实现特定目标的自主系统。
而记忆,正是赋予这个系统连续性和个性的关键。
没有记忆的Agent,每一次交互都是孤立的、无状态的,如同一个患上了“数字遗忘症”的患者。
因此,仿照人类认知体系,为Agent设计记忆结构成为了必然。
其中,短期记忆与长期记忆的划分,构成了Agent记忆系统的基本框架。
01 短期记忆:意识的工作台
1. 定义与核心特征
短期记忆,顾名思义,是Agent在处理当前任务或单一会话周期中所临时保持的信息。
它就像我们大脑中的“工作记忆”或电脑的“运行内存(RAM)”,具有以下核心特征:
高时效性与情境性
它严格绑定于当前的交互上下文。
例如,在一次对话中,你刚刚说过的上几句话、用户当前查询的意图、正在执行的步骤等。
容量有限
由于计算资源和模型架构的限制,短期记忆的缓冲区大小是有限的。
最直接的技术体现就是大型语言模型的上下文窗口。
无论是4K、8K、128K还是200K Token,这个窗口定义了短期记忆的绝对上限。
快速存取
存放在短期记忆中的信息处于激活状态,可以被模型直接、快速地读取和利用,无需复杂的检索过程。
易失性
一旦任务结束或会话超时,短期记忆通常会被清空或覆盖,不会自动保留。
2. 技术实现
短期记忆的实现直接依赖于底层大模型的架构:
Transformer的上下文窗口
在生成每一个新的Token(词元)时,Transformer的自注意力机制会关注上下文窗口内的所有先前Token。
这些Token及其之间的关联,就构成了Agent的短期记忆。
当对话长度超过窗口限制时,最早的信息会被“挤出”窗口,从而被遗忘。
提示工程中的系统提示与Few-shot示例
在发起一次API调用时,我们传入的`system`消息、`few-shot`示例以及整个对话历史(只要在窗口内),都是在主动构建和利用Agent的短期记忆。
思维链
Agent在解决复杂问题时,逐步推理并将中间步骤输出,这些步骤会保留在上下文窗口中,成为后续推理的短期记忆,确保思维的连贯性。
3. 应用场景
短期记忆是几乎所有交互式AI应用的基石:
多轮对话
这是最典型的场景。
在客服机器人、虚拟助手对话中,Agent必须记住用户在本轮对话中提到的所有关键信息。
如“我想要订一张从北京到上海的机票” -> “明天上午的”,才能进行连贯的交流。
复杂任务分解与执行
当Agent需要完成一个复杂指令时,如“帮我写一份关于量子计算的报告,并列出三个核心参考文献”,它会将任务分解为“搜集资料-撰写内容-整理格式-列出文献”等步骤。
短期记忆确保了它记得自己正在执行的任务总纲和已完成步骤,避免迷失方向。
代码编写与调试
程序员助手在编写一个函数时,需要记住之前定义的变量、函数名和逻辑结构,这些都是短期记忆在起作用。
上下文理解与指代消解
理解代词(“它”、“那个”)、省略句(“另一个呢?”)都严重依赖于短期记忆中的上文信息。
02 长期记忆:经验与知识的图书馆
1. 定义与核心特征
长期记忆是Agent在跨任务、跨会话中持久化存储和积累的知识与经验。
它如同一个庞大的外部知识库或我们大脑的长期记忆区,其特征与短期记忆形成鲜明对比:
持久性与跨情境性
信息被存储在外部数据库或向量库中,不受单次会话生命周期的限制,可以被未来的任何会话调用。
容量近乎无限
得益于外部存储系统(数据库、文件系统、向量数据库),长期记忆的容量可以随着需求无限扩展。
按需检索
信息并非总是处于激活状态。
当需要时,Agent会通过检索增强生成(RAG)等技术,从长期记忆中搜索并提取相关信息,然后将其注入到当前的短期记忆(上下文窗口)中使用。
非易失性
信息被有意地保存下来,形成Agent的“个人历史”和“专属知识”。
2. 技术实现
长期记忆的实现是一个系统工程,通常涉及以下组件:
向量化与向量数据库
这是实现长期记忆的核心技术。
将文本、图像等非结构化数据通过嵌入模型转换为高维向量,然后存储到向量数据库中。
检索时,通过计算查询向量与库中向量的相似度,找到最相关的信息片段。
传统数据库
用于存储结构化的信息,如用户的个人信息、偏好设置、交易记录、会话日志等。
检索增强生成(RAG)
这是连接长期记忆与短期记忆的桥梁。
当Agent需要回答一个问题或执行一个任务时,它首先查询长期记忆(向量库)。
将最相关的文档片段作为上下文与用户问题一同送入LLM,从而生成一个基于“记忆”的、更准确的回答。
强化学习与经验回放
在基于强化学习的Agent中,长期记忆以经验回放缓冲区的形式存在。
存储过去的(状态,动作,奖励,新状态)元组,用于从中采样来重新训练模型,从而积累成功的策略和经验。
3. 应用场景
长期记忆使得Agent能够实现个性化和持续学习,是其迈向通用人工智能的关键一步:
个性化助手
记住用户的偏好(“我不喜欢喝咖啡”)、生活习惯(“每周三晚上要健身”)、工作项目背景等,从而提供量身定制的建议和服务。
企业知识库问答
将公司的内部文档、产品手册、历史项目资料存入长期记忆。
任何员工都可以通过自然语言提问,Agent能快速检索并总结出准确答案,成为企业的活百科。
数字生命与伴侣机器人
记录与用户的每一次互动历史、分享的故事、情感经历。
这使得Agent能够建立起与用户的共同回忆,表现出连贯的人格和情感深度。
技能与工具的熟练使用
通过长期记忆,Agent可以记住如何操作某个复杂的软件API,或者记住上一次解决类似bug时所用的命令,从而提高未来任务的执行效率。
03 核心区别与协同工作
为了更直观地理解,我们通过一个表格来总结二者的核心区别:
![]()
一个强大的Agent绝非只依赖一种记忆,而是让二者协同工作。
RAG范式完美地展示了这一点:
触发:用户提出一个问题(“我们公司最新的年假政策是怎样的?”)。
检索(长期记忆):Agent将此问题向量化,并在公司的政策文档向量库(长期记忆)中进行相似性搜索,检索出最相关的政策段落。
增强(注入短期记忆):将这些检索到的段落作为上下文,与用户的原始问题一起,填充到LLM的上下文窗口(短期记忆)中。
生成(利用短期记忆):LLM基于当前丰富的短期记忆(用户问题+相关知识),生成一个精准、有据可循的回答。
在这个过程中,长期记忆充当了海量知识的储备池,而短期记忆则成为了一个高效、专注的“实时信息处理工作台”。
04 未来展望与挑战
当前,Agent的记忆系统仍面临诸多挑战:
短期记忆的窗口限制,尽管上下文窗口在不断增大,但成本、延迟和中间丢失问题依然存在。
长期记忆的检索质量,检索的准确性、召回率,以及如何处理信息的冲突与更新,是亟待解决的问题。
记忆的抽象与压缩,如何像人类一样,不是存储所有原始数据,而是存储抽象的、高级别的要点,是一个前沿研究方向。
记忆的安全与隐私,长期记忆包含了大量敏感信息,如何保证其安全、防止被恶意利用或泄露,是产品化必须跨越的鸿沟。
总而言之,短期记忆与长期记忆是Agent认知架构中相辅相成的两大支柱。
短期记忆赋予了Agent在当下进行情境化交互和复杂推理的能力,使其显得机智而专注。
长期记忆则赋予了Agent跨越时间的连续性和独特性,使其能够积累经验、形成个性,并展现出深度的理解。
理解和熟练运用这两种记忆机制,是设计和开发下一代真正智能、可信赖且有用的Agent的关键所在。
未来的突破,很可能就发生在如何更高效、更智能地连接与管理这两个记忆世界的边界上。
本文来自公众号:时间之上 作者:伍德安思壮
想要第一时间了解行业动态、面试技巧、商业知识等等等?加入产品经理进化营,跟优秀的产品人一起交流成长!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.