网易首页 > 网易号 > 正文 申请入驻

本周 AI 项目推荐|Mem0, Memories.ai......AI 记忆大爆炸

0
分享至

来源:市场资讯

(来源:硅星人)


作者 | 黄小艺

邮箱 | huangxiaoyi@pingwest.com

本周的AI项目推荐,我们聚焦在AI Memory这个领域。这是一个还没有被太多目光注意到,但已经在融资动作和产品更新上呈现出“起飞”态势的方向。

一批名为Mem“X”的算法框架及产品,正在加入模型上下文的战争。

随着大模型被推向应用场景,一个根本性问题日益凸显:如何有效管理和记忆长上下文。无论是实现连贯的多轮对话,还是构建能长期服务用户的个性化Agent,记忆的积累与调用都是核心。于是,在当前大模型的上下文限制下,RAG也好,Agent也好,都在某种程度上尝试提出补偿方案。

而现在,10000个AI记忆框架也来了:Letta(MemGPT)、Mem0、MemU、MemOS......他们直接将记忆转化成一套可独立设计的工程体系,支持智能筛选信息、结构化存储、高效检索,为大模型装上了可插拔、可优化的“记忆外挂”。

对AI初创而言,这也是一个绝佳的切入点:记忆是大模型实现真正可用性的刚需所在,而目前技术路线和应用场景差异化明显、竞争格局远未固化,且资本投资热度颇高。

我们整理了市面上主流的AI记忆算法框架、产品及其融资情况,也看看它们之间到底有什么区别。

1

Mem“X ”混战

Letta:https://github.com/letta-ai/letta

Letta由加州大学伯克利分校的实验室孵化而成,项目最早在 GitHub 以 MemGPT名义开源,后更名为 Letta,截止目前有19K星。

MemGPT的核心是一个记忆管理流水线,也是记忆领域的元老级框架。

其论文显示,它将上下文划分为 Main Context(主上下文,即提示词) 与 External Context(外部上下文)‍,允许LLM 通过MemGPT 来管理其自身的上下文,将不太相关的数据从主上下文(提示词)中移除并存储到外部上下文中,同理,也可以将相关的外部上下文召回到主上下文,从而实现信息在两者之间的迁移,让记忆持久化和即时可用[1]。


详细来说,基于上图,当用户的输入进入后,该消息首先由队列管理器(Queue Manager)处理,放入先进先出队列(FIFO Queue)中,这是一个简单的时序处理逻辑。如果此时上下文窗口接近饱和,队列管理器会自动将队列中最旧的消息转移到回忆存储(Recall Storage)中进行备份,以确保有足够的空间容纳新信息。

随后,LLM 会读取其完整的有限上下文,包括固定的系统指令、可变的工作上下文以及更新后的消息队列,并基于这些信息进行“思考”,如果LLM能直接回答用户,就会生成一段文本回复。

但如果它判断需要利用长期记忆,比如查询用户的职业,它就会生成一个函数调用,由Function Executor(函数执行器)捕获并执行,Function Executor会与Archival Storage(归档存储)交互,或调取回忆存储(Recall Storage)的记忆,检索所需信息,将结果,写回到 LLM 的工作上下文中。

这个更新操作相当于为 LLM 提供了一条新的关键信息,触发它进行新一轮的思考,生成一个更具个性化和上下文感知能力的回复,完成交互闭环。

2024年,Letta获得了1000万美元的种子资金,领投 Felicis Ventures,投资人包括硅谷大佬Jeff Dean,2025 年持续迭代,推出 Letta Cloud(托管版)、本地 Docker与桌面版三种部署方式。

Mem0:https://github.com/mem0ai/mem0

定位为“AI智能体的通用记忆层”,与 MemGPT 的区别在于,用户的输入进入时,会和已有记忆进行相似性查询,融合、关联记忆,并调用工具操作,保持数据库的更新,而不是简单的先进先出的时序整理。

Mem0在GitHub已获得 42.6K 星,Python 包下载量达 1400 万次。API 使用量呈指数级增长,从第一季度的 3500 万次调用增长至 2025 年第三季度的 1.86 亿次,成为了AWS新Agent SDK的记忆提供方。

论文显示,主要架构有 Mem0 和MemOᵍ两种互补的记忆架构[2]:

其中,Mem0的架构概览如下,在提取阶段,处理消息和历史上下文,以创建新的记忆;更新阶段将这些提取的记忆,与类似的现有记忆进行比较,并通过Tool Call进行相应的操作,例如增加、更新、删除、不操作。数据库作为中央存储库,为处理和存储更新后的记忆提供上下文,适合单跳和多跳推理任务。


而MemOᵍ基于图的扩展,提取阶段使用 LLM 将对话消息转换为实体和关系三元组,更新阶段将新信息集成到现有知识图谱,并采用冲突检测和解决机制。论文显示,该架构在时间域和开放域任务中显著提升了性能。


2025年10月底,Mem0宣布获得了2400万美元的融资,由Kindred Ventures 领投种子轮,Basis Set Ventures 领投 A 轮,其他参与者包括 Peak XV Partners、GitHub Fund 和 Y Combinator。

MemU:https://github.com/NevaMind-AI/memU

前豆包和猫箱 Memory 算法负责人陈宏创办,定位为“为AI伴侣设计的下一代代理记忆系统”。MemU支持文本、图像、音频等多种数据类型,提供云、企业和社区自托管三种模式。项目于 2025 年 8 月发布,已在 GitHub 获得2.8K星,侧重AI角色扮演、虚拟偶像等场景。

MemU 设计理念的核心在于「基于Agent的记忆文件组织方式」 。

在记忆提取阶段,MemU会将各个记忆项根据其类别,分组到专用的文档文件中,提供自主记忆代理,能自动决定何时记录、修改、归档或遗忘信息。每⼀条记忆也会被视作更⼤知识图谱中的节点。系统会⾃动检测不同时间、不同模态间的联系,构建出⼀个可动态演化的“经验⽹络”,像超链接⽂档⼀样可以被检索和遍历[4]。


相当于融合了Mem0的两个架构,会按类型把信息划分为文件,且同时会对文件中的具体信息进行跨文件的关联,而总体上,再由一个自主的Agent,基于一定规则来整理。

Memobase:https://github.com/memodb-io/memobase

和MemU一样是基于文件的组织方式。Memobase专注“基于用户画像的长期记忆”,定位是为聊天机器人、AI伴侣等应用打造“用户档案库”,支持 Profile和Event双线记忆管理,并即将推出Schedule、Social 两类新的记忆结构[5],在GitHub上有2.3K星。

Memobase强调对性能、成本和延迟的平衡,通过为每个用户建立缓冲区来批量处理对话,确保在线响应速度低于100ms[5]。


除了应用于AI伴侣场景,还可以应用在教育等场景,例如通过记住个人的学习进度、偏好和优势,专门针对教育环境中的记忆功能进行配置,使其能够更专注于学生的错误答案、标准化考试成绩和学习习惯。

MemOS:https://github.com/MemTensor/MemOS

MemOS 认为,「记忆」作为一个独立系统层,和计算、存储一样,是AI 应用的基础能力。它的整体架构可以概括为三层: API 与应用接口层、记忆调度与管理层、记忆存储与基础设施层,更注重面向企业级的系统化记忆管理。


据其公开技术文档及论文显示[6]:

在API 与应用接口层,MemOS 提供了标准化的 Memory API,开发者可以通过简单的接口实现记忆创建、删除、更新等操作,支持多轮对话、长期任务和跨会话个性化等复杂应用场景。

在记忆调度与管理区层,别于其他记忆结构,其核心差异在于从记忆建模的视角出发,提出了记忆调度范式——通过设计异步调度框架,提前预测模型可能需要的记忆信息,例如用户正值旅游阶段,有关旅游的记忆和安排会提前被激活,从而降低实时生成中的效率损耗。

在记忆存储与基础设施层,MemOS通过标准化的 MemCube 封装,将明文记忆、激活记忆和参数记忆(又分为内、外两种参数记忆,内参数记忆即微调进大模型)三种形态有机整合[7]。

如图所示,在这个环节,它还提供了记忆的过期策略、不同用户的访问控制、隐私保护、水印服务等合规设定,并支持多种持久化存储方式,包括 Graph 数据库、向量数据库,甚至构想了记忆的商业生态(MemStore),让记忆本身成为可以流通的商品。

总体而言,其核心思想是将AI的记忆像企业级数据一样进行专业化管理,通过分层解耦,区分了不同状态的记忆(内在/外在,激活/持久化),将记忆的应用、调度、治理、存储分开。

MemOS背后的企业是记忆张量,2025年6月记忆张量宣布完成了由孚腾资本、算丰信息、中金资本等知名机构共同投资的近亿元天使轮融资。

Memories.ai:

专注视觉记忆。成立于 2024 年,由前 Meta Reality Labs 的华人研究科学家Shawn Shen与Ben  Zhou联合创立,能为 AI 提供持久、可检索的视觉记忆层。

Memories.ai已经推出了LVMM 1.0(Large Visual Memory Model)和LVMM 2.0 两种架构。

其中,LVMM 1.0将视频流解构为视频画面、语音、文本、元数据四个维度。在画面解析上,又拆分成框架结构、物体识别、动作理解、事件序列等结构化数据层,把视频解读并存储成更详细的数据,具体到每个片段帧的图文描述,把拆分好的结果存进数据库,并进行向量化和知识图谱,方便用户query来了进行索引[8]。


在近日,Memories.ai又推出了LVMM 2.0,并宣布了与高通合作,从 2026 年开始在高通处理器上本地运行,使消费者和企业能够在其设备上安全、快速地搜索和分析视觉时刻。

Memories.ai 的 LVMM 2.0 通过将原始视频转换为设备上的结构化记忆,对帧进行编码、压缩,并构建支持亚秒级搜索的索引。用户可以用通俗易懂的语言提出复杂的问题或使用图像提示,然后跳转到确切的时刻。在高通处理器上本地运行可降低延迟、降低云成本并将数据保持在本地以增强安全性,即使在网络边缘也能可靠地执行。

2025 年7 月,Memories.ai完成 800 万美元种子轮融资,领投方为 Susa Ventures,跟投包括 Samsung Next、Crane Venture Partners、Fusion Fund、Seedcamp、Creator Ventures等。

Zep AI:https://github.com/getzep

Zep AI,一种面向Agent的新型记忆层服务,由其开发的Graphiti开源框架提供支持。Graphiti 是一个时间知识图谱框架,用于处理不断变化的关系并维护历史背景,其独特之处在于它能够自主构建知识图谱,同时还能推理状态随时间的变化。每个事实都包含 valid_at 和 invalid_at ,这使得智能体能够追踪用户偏好、特征或环境的变化[9]。截止目前,在GitHub上,Zep有3.7K星,Graphiti有19.7K星。


Zep AI 在 2024 年 4 月 完成了约 50 万美元的种子轮融资,领投方为 Y Combinator。

Second-Me (by Mindverse):https://github.com/Mindverse/Second-Me。

Second‑Me 是 Mindverse 打造的 AI 身份模型,核心在于本地隐私训练、持续记忆对齐、开放生态,主张“训练你的AI自我”,通过分层记忆模型(HMM)和自我对齐算法,使记忆能够随用户行为持续更新、保持一致性旨在捕获你的身份、理解你的情境,强调100%的隐私和控制权。


图中,记忆的L0~L2分别指的是:

L0:原始数据层。该层类似于将RAG等直接应用于原始数据,将记忆定义为所有非结构化数据。

L1:自然语言记忆层。该层包含可以用自然语言形式概括的记忆,例如用户的简短个人简介、重要句子或短语列表以及偏好标签。

L2:AI 原生记忆层。该层代表那些无需自然语言描述的记忆。相反,这些记忆通过模型参数进行学习和组织。

区别于其他“记忆文件外挂”,Second‑Me提出了首个基于个人文档记录的全自动后训练流程,构建了一个多层混合系统。

Supermemory:https://github.com/supermemoryai/supermemory

Supermemory 是一套面向AI应用的通用记忆 API,通过自研向量数据库、内容解析器、知识图谱以及丰富的 SDK/Connector[10],帮助个人和企业实现跨会话、跨模态、可持久的记忆,GitHub上获得13.2K星。


其特点是:

举个例子,在以下场景中:


RAG会检索语义上最相似的文本,但会忽略了时间进程和因果关系。


而通过时序知识图谱,Supermemory会跟踪事实何时失效,并理解因果链。


创始人Dhravya Shah年仅 19 岁。2025 年10月,Supermemory完成了约260万美元种子轮融资,由 Susa Ventures、Browder Capital、SF1.vc 领投。

1

不存在绝对“正确”的路线,记忆框架的进化刚开始

从根本上看,当下的AI记忆框架(Mem“X”)是RAG方案的进化产物。它们的核心身份仍然是一个外部记忆API,但其职责不再是简单地提供事实知识库,而是像人脑一样,对原始信息进行处理、切割与重组,然后将消化过的“记忆”作为上下文,供大语言模型(LLM)或智能体(Agent)调取。

这种“记忆与处理分离”的架构,模拟了人脑中记忆存储区与逻辑处理区的分工,优雅地解决了LLM上下文窗口有限的难题。

然而,这也是一把双刃剑。由于记忆以API形式提供,且目前的记忆的处理更像是简单的切割和索引,主流平台又普遍支持记忆的迁移与备份,客户的切换成本相对较低,这使得市场难以形成绝对的“护城河”。

另一方面,这也意味着这是一门高度工程化的B端服务业务。 客户对记忆方案的评估维度极为细分——价格、延迟、准确性、关联度、安全性,且效果反馈周期长。不存在一个“最好”的方案,只有“最适合”的方案。正是这种多样化的需求,催生了当前记忆框架在技术路线上的分野。

打个比方,如果LLM有限的上下文是计算机的“物理内存(RAM)”,外部存储是“硬盘(Hard Drive)”,那么不同的Mem“X”框架,就是针对不同场景设计出的“内存调度系统”。它们都在回答同一个核心问题:记忆应该如何被组织和调度,才能最准确高效地在“硬盘”和“内存”之间换入换出?

目前,主流的记忆框架可以归结为三大类:

一类是将记忆管理设定为一种操作系统行为。

此路线将记忆管理视为一种宏观的、动态的系统行为。以 MemOS 为例,它会主动“整理”全部记忆,将其区分为不同状态(如明文记忆、激活记忆),并引入一个预测性调度框架。根据当前对话和用户画像,它能提前将可能需要的记忆“预加载”到准备区。这种方案的优势在于处理大规模、高并发的企业级记忆场景,追求整体的调度效率。

第二类是将记忆转化为知识图谱的“关联网络”,Zep AI、Supermemory、MemOᵍ、Memories.ai都或多或少地提供了这一服务。

此路线的拥护者认为,记忆的力量在于关联。它们致力于将离散的记忆片段(“用户喜欢咖啡”)结构化为实体、属性和关系的“关联网络”。这使得AI能够进行更复杂的逻辑推理。

例如,Zep AI 强调时间维度,能更新“用户上周喜欢咖啡,但这周失眠不能喝了”这类动态关系;而 Supermemory 则利用LLM自动从对话中提取关系,构建自增长的记忆网络。这条路线的记忆更新处理成本相对较高,更适合需要深度逻辑和状态追踪的场景。

第三类则是通过文件系统(File System),将记忆视为“归档资料”。例如,MemU、Memobase,更侧重于记忆的组织、分类和应用。

此路线将记忆视为需要精确组织和分类的“归档资料”。例如,Memobase 将用户的静态偏好和动态经历分开,以清晰的数据架构换取更低的检索延迟。而 MemU 的独特之处在于引入了一个自主记忆代理(Agent)来扮演“档案管理员”,让Agent来管理记忆,而非简单地让记忆服务于Agent。

此外,还存在如 Second-Me 这样的混合路线,它通过“全自动后训练”,将部分记忆特征直接“刻进”模型参数中,实现了“外挂”与“内化”的结合。

这些路线并非完全互斥,许多项目正在融合多路线的优点。但更关键的趋势在于,记忆框架的“管理者”正在变得越来越聪明,从而避免被替代,形成数据的飞轮。

此前,以MemGPT为代表的初代框架,更像一个按固定规则整理书籍的“机械图书管理员”,其管理逻辑是工程化的、静态的。而2025年涌现的新框架,如MemU和MemOS,则越来越多地在记忆管理中引入AI或Agent,使其成为一个能根据用户动态画像和上下文,自主学习和优化整理策略的“智慧图书管理员”。

这种从“索引API”到“自主管理”的进化,是AI记忆框架的竞争焦点,即从基础的工程实现,转向如何构建一个更智能、更高效的记忆Agent体系。

2026年,关于记忆的框架进化和竞赛,才刚刚开始。

参考资料:

[1]MemGPT: Towards LLMs as Operating Systems

[2]Mem0: Building Production-Ready AI Agents with Scalable Long-Term Memory

[3]Overview - Mem0 https://docs.mem0.ai/cookbooks/overview

[4]MemU Documentation - Complete Guide for AI Memory Integration

[5]What is Memobase? - Memobase

[6]MemOS: A Memory OS for AI System

[7]MemOS算法原理概述 https://memos-docs.openmem.net/cn/overview/algorithm

[8]Introduction | Memories.ai

[9]ZEP: A TEMPORAL KNOWLEDGE GRAPH ARCHITECTURE FOR AGENT MEMORY

[10]How Supermemory Works - supermemory | Memory API for the AI era


点个“爱心”,再走 吧

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
中国公民赴俄将免签,元旦假期赴俄机票预订量同比增约32%

中国公民赴俄将免签,元旦假期赴俄机票预订量同比增约32%

新京报
2025-11-19 17:31:10
退休后,养老金能够拿到这个数,你就是人生赢家,高枕无忧了

退休后,养老金能够拿到这个数,你就是人生赢家,高枕无忧了

匹夫来搞笑
2025-11-19 15:47:38
iPhone无折痕屏幕已正式定型:屏幕将由三星独家供应;该机型按计划将于明年9月亮相

iPhone无折痕屏幕已正式定型:屏幕将由三星独家供应;该机型按计划将于明年9月亮相

鲁中晨报
2025-11-19 13:47:07
无我——追记北京市公安局副局长、交通管理总队(交通管理局)总队长(局长)董亦军

无我——追记北京市公安局副局长、交通管理总队(交通管理局)总队长(局长)董亦军

公安部交通安全微发布
2025-11-19 16:06:58
美女美图7139期

美女美图7139期

手工制作阿歼
2025-11-14 08:13:28
上海乒乓女团摘得全运会铜牌!陈熠坦言没想到

上海乒乓女团摘得全运会铜牌!陈熠坦言没想到

现代快报
2025-11-19 17:59:05
中国军方宣布,将于11月17日至19日举行实弹军事演习

中国军方宣布,将于11月17日至19日举行实弹军事演习

百态人间
2025-11-19 05:05:03
江苏卫视上星!42集谍战大作来袭,“特工专业户”祖峰强势回归

江苏卫视上星!42集谍战大作来袭,“特工专业户”祖峰强势回归

乐枫电影
2025-11-19 17:25:03
全运会女子100米栏:吴艳妮预赛跑进13秒内,决赛PK林雨薇

全运会女子100米栏:吴艳妮预赛跑进13秒内,决赛PK林雨薇

全景体育V
2025-11-19 09:53:12
特朗普万万没想不到,C919迪拜首秀32国开门,适航证成废纸

特朗普万万没想不到,C919迪拜首秀32国开门,适航证成废纸

星辰夜语
2025-11-19 18:12:19
天呐!巩俐这身材太惊艳了,胸围几乎到肚脐,状态却依旧十分亮眼

天呐!巩俐这身材太惊艳了,胸围几乎到肚脐,状态却依旧十分亮眼

TVB的四小花
2025-10-22 02:25:03
小米法务的这个骚操作,让人彻底看清雷军的本质

小米法务的这个骚操作,让人彻底看清雷军的本质

热点菌本君
2025-11-19 16:18:57
冯德莱恩筹不到钱,泽连斯基打电话给土耳其,想找俄罗斯谈谈

冯德莱恩筹不到钱,泽连斯基打电话给土耳其,想找俄罗斯谈谈

壹只灰鸽子
2025-11-19 18:05:33
30岁快递员因送错快递被杀害,知情人:收件人嫌配送太慢发生口角,收件人丈夫突然情绪失控,拿刀实施了暴行

30岁快递员因送错快递被杀害,知情人:收件人嫌配送太慢发生口角,收件人丈夫突然情绪失控,拿刀实施了暴行

观威海
2025-11-19 16:34:02
突破“卡脖子”!清华学霸干出又一个世界第一

突破“卡脖子”!清华学霸干出又一个世界第一

华商韬略
2025-11-17 10:27:22
江苏女子为省钱每天带饭上班,坚持5天不带了,网友:现实太残酷

江苏女子为省钱每天带饭上班,坚持5天不带了,网友:现实太残酷

双色球的方向舵
2025-11-19 12:37:28
秦基伟将军86年重返上甘岭之后:把黄继光侄女调到北京,大校退休

秦基伟将军86年重返上甘岭之后:把黄继光侄女调到北京,大校退休

墨兰史书
2025-11-18 02:30:03
蓝厅观察|中方多部门一周内对日密集发声或采取相应措施16次

蓝厅观察|中方多部门一周内对日密集发声或采取相应措施16次

澎湃新闻
2025-11-17 21:44:26
白菜是糖尿病导火索?提醒:若想胰岛强壮,这5物能不吃就不吃!

白菜是糖尿病导火索?提醒:若想胰岛强壮,这5物能不吃就不吃!

橘子约定
2025-11-19 16:34:31
大批日本专家,抛弃日本涌入中国,表面为了赚钱,实则另有目的?

大批日本专家,抛弃日本涌入中国,表面为了赚钱,实则另有目的?

壹知眠羊
2025-11-07 14:39:53
2025-11-19 19:28:49
新浪财经 incentive-icons
新浪财经
新浪财经是一家创建于1999年8月的财经平台
1433292文章数 4572关注度
往期回顾 全部

科技要闻

一夜封神,Gemini 3让谷歌找回“碾压感”

头条要闻

佘智江刚被引渡回国 缅甸政府突袭其名下"亚太新城"

头条要闻

佘智江刚被引渡回国 缅甸政府突袭其名下"亚太新城"

体育要闻

世界杯最小参赛国诞生!15万人岛国的奇迹

娱乐要闻

又反转!曝喻恩泰出轨美女律师

财经要闻

荷兰政府暂停接管安世半导体

汽车要闻

此刻价格不重要 第5代帝豪本身就是价值

态度原创

家居
房产
教育
艺术
公开课

家居要闻

水岸美学 书香人文生活

房产要闻

29.4亿!海南“地王”片区,要卖超级宅地!

教育要闻

博士扩招——是雄心,也是重担

艺术要闻

启功:我是画家,但书名超过了画名

公开课

李玫瑾:为什么性格比能力更重要?

无障碍浏览 进入关怀版