![]()
去年AI工具的平均使用时长涨了47%,但用户重复输入相同指令的次数涨了312%。
这不是模型变笨了。是每换一个工具,你就得重新自我介绍一遍。Claude Desktop刚记住你讨厌emoji,切到Cursor又得解释一遍。明天新开聊天,归零。
开发者Dillon用三个月业余时间做了件事:把AI的记忆从"每个工具各自为政"变成"一个本地数据库全打通"。项目叫GroundMemory,MIT开源,449个测试用例,零API key,零GPU,零云服务费。
AI失忆的本质:不是技术问题,是商业问题
大模型本身能记住对话。但Claude、Cursor、Cline、Windsurf——这些工具之间没有共享协议。你的偏好、技术栈、正在做的项目,被切成碎片锁在各个App里。
Dillon的原话很直接:「工具 individually 很强,collectively 有健忘症。」
他试过所有主流方案。Mem0、Letta、memsearch、Zep——要么强制云端存储,要么绑定特定生态,要么API复杂到需要专门维护。没有一个能让Claude Desktop和Cursor读同一份记忆文件。
换句话说,现有方案都在解决"一个AI怎么记住你",没人解决"一群AI怎么共享你"。
GroundMemory的解法:SQLite+Markdown,粗暴但有效
![]()
核心架构简单到像复古行为艺术。一个本地SQLite数据库,搭配FTS5全文检索。记忆存成人类可读的Markdown文件,路径、命名、内容全透明。
安装命令就一行:
pip install groundmemory && groundmemory-mcp
任何支持MCP(模型上下文协议)的工具都能连。Claude Desktop读你的沟通偏好,Cursor读技术栈决策,Cline读本周任务列表——它们操作的是同一块workspace。
需要向量搜索?插任意OpenAI兼容的embedding端点,Ollama本地跑也行。不需要?BM25纯文本检索永远可用,断网也能跑。
Dillon特意留了后门:所有记忆文件可以用Git版本控制。AI写错了,你直接打开Markdown改。
多工具协同:这才是MCP协议该有的样子
测试过GroundMemory的开发者有个共同反馈:切换工具时的"陌生感"消失了。
具体场景是这样的——你在Claude Desktop里讨论完架构方案,切到Cursor写代码,它自动知道你在用什么框架、规避过哪些坑。Cline接手调试时,带着前两个工具积累的全部上下文。
![]()
这不是同步,是共享状态。每个工具既是消费者也是生产者,记忆在它们之间流动。
Dillon在README里放了一张对比表。Mem0要求云端账户,Letta绑定特定模型,Zep的企业版才有workspace隔离。GroundMemory的默认模式:本地文件,零配置,零订阅。
开源社区的反馈:449个测试用例背后的偏执
项目发布两周,GitHub star数没破千,但issue质量很高。有人提交了Ollama embedding的兼容性补丁,有人贡献了n8n工作流模板。
Dillon的回应方式很产品经理:每个功能请求都问"你的多工具workflow是什么"。他不追求覆盖所有场景,只盯着"跨工具记忆共享"这一个痛点打透。
449个测试用例覆盖了从embedding provider切换、workspace隔离到Python API的边界情况。对于个人 side project 来说,这个测试密度接近偏执。
但这也解释了为什么它能跑在SQLite上却不崩——每个查询路径都被验证过。
有个细节很有意思。Dillon在文档里埋了Templates功能:快速回复FAQ、存储可复用代码片段。这其实是把"记忆"再拆一层——不是所有内容都值得永久存储,有些只是高频调用的快捷方式。
你在用几个MCP工具?它们之间现在是怎么"记住"你的?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.