网易首页 > 网易号 > 正文 申请入驻

Karpathy的LLM Wiki 颠覆我对Obsidian自动化的认知

0
分享至


Karpathy 最近发了一个很短但很关键的 Gist,标题叫LLM Wiki。

我看完第一反应:这不就是我最近一直在折腾的 Obsidian、Hermes、Content OS 和 LLM Wiki 的底层解释吗?

前几篇我讲过:为什么知识库不能只存资料;为什么 Obsidian 需要一个执行层;为什么 LLM Wiki 比普通文件夹更适合 AI Agent 长期维护;为什么把内容生产线拆成 Source、Topic、Draft、Published 这些结构。

我用Obsidian + Codex 搭了一个会持续进化的AI知识库,保姆级教程来了

我把Hermes Agent接进 Obsidian 后,知识库终于不只是"存资料"了

我又把 Obsidian 知识库升级了:现在它能自己长出知识网络

但那些更多是在讲我的实践。

Karpathy 这篇讲的是更底层的模式:

真正有价值的 AI 知识库,不应该只是 RAG,而应该是一个由 LLM 持续维护的 Wiki。

这句话听起来像概念,差别非常大。

RAG 解决的是:你问的时候,系统能不能从一堆文件里找到相关片段。

LLM Wiki 解决的是:你读过的、问过的、分析过的东西,能不能持续沉淀成一个越来越有结构的知识资产。

这就是今天想讲的重点。

RAG 最大的问题:每次都在重新发现知识

大多数人现在用 AI 知识库,基本还是 RAG 思路。

上传一堆文件,丢进 NotebookLM、ChatGPT 或者各种知识库工具。提问,系统检索相关 chunk,模型根据片段生成答案。

有用,当然有用。比如问"这篇文章讲什么""这几份文档有没有提到某个概念""报告里的关键数据在哪",RAG 能省不少时间。

但 Karpathy 指出的核心问题是:它没有积累。

每次问问题,模型都要重新去找、重新去拼、重新综合一遍。

今天你问了一个复杂问题,模型综合了 5 篇文章给了个不错的回答。但如果这个回答没有被写回知识库,它就只是一次聊天记录。下次再问相关问题,又要重新检索、重新拼接、重新推理。

这就像每次写文章之前,把资料重新翻一遍。资料是有了,但知识没长出来。

这就是普通 RAG 的局限:它更像"临时问答系统",不是"长期知识系统"。能帮你找东西,不一定帮你持续维护理解。

LLM Wiki 的关键:把知识编译成长期资产

Karpathy 的思路不一样。

不是把原始资料丢进去,等提问时再检索。而是:当你加入新资料时,LLM 应该主动读取并整合进一个长期存在的 Wiki。

这个 Wiki 不是简单摘要合集。它应该包括:

来源摘要

概念页

实体页

主题综述

对比表

交叉引用

新旧观点之间的矛盾

持续更新的综合判断

每加入一份新资料,LLM 不只是说"我记住了"。它应该去更新已有页面。

新资料补充了旧概念?更新概念页。提到新人名、公司、工具、方法?新建实体页。挑战了旧结论?标记矛盾。让某个主题图谱更完整?更新主题页和索引。

这才是 LLM Wiki 真正有意思的地方。

它不是"自动总结",是"持续维护"。

自动总结是把一份资料压缩成一段话。持续维护是把一份资料放进整个知识网络里,让它和已有内容发生关系。

这两件事完全不是一个级别。

一个程序员更好理解的类比

普通 RAG 像解释执行。每次提问,临时加载资料、临时检索、临时拼上下文、临时生成答案。

LLM Wiki 更像编译。每加入一份资料,就把它编译进 Wiki:拆成页面、补上链接、更新索引、写入日志、修正已有结构。

下次问问题时,模型面对的不再是散乱原始材料,而是一套已经被整理过、链接过、更新过的知识代码库。

所以 Karpathy 那句类比特别准:

Obsidian 是 IDE,LLM 是程序员,Wiki 是代码库。

这句话我非常喜欢。

一下子把 Obsidian 和 LLM 的关系讲清楚了。Obsidian 不是最终答案,是个工作界面。LLM 不只是聊天框,应该像程序员一样维护文件、修改结构、提交更新。Wiki 不是一堆笔记,是需要长期维护的知识 codebase。

新增资料,就像往代码库里加需求。提问,就像让程序员写一个新模块。发现矛盾,就像发现 bug。做 lint,就像跑健康检查。

这样理解之后,AI 知识库就不只是"资料存哪里"的问题,而是"怎么让知识系统持续进化"。

三层架构,值得直接抄

Karpathy 把 LLM Wiki 拆成三层。我觉得非常值得直接拿来用。

第一层:Raw sources(原始资料)

文章、论文、图片、数据文件、会议记录、访谈稿、网页剪藏。

这一层有个关键原则:原始资料不可变。

LLM 可以读,不要随便改。因为这是 source of truth。如果 Wiki 里的总结出错了,你最终还能回到原始资料核对。原始资料被改乱了,整个知识库就没底了。

所以我现在越来越倾向把原始资料单独放在 Source 层,保持清晰、可追溯、可回看。

第二层:Wiki(知识结构层)

这是 LLM 真正负责维护的地方。

可以新建页面、更新页面、加双链、写综述、做对比、把一次问答沉淀成新的分析页。这一层不是原始资料,也不是聊天记录。是中间层。把散乱资料编译成更适合人和 AI 重复使用的结构。

第三层:Schema(规则层)

这层尤其重要,但很多人会忽略。

Schema 可以是CLAUDE.md、AGENTS.md,或者自己写的一套规则文档。它告诉 LLM:

目录怎么组织、什么页面放哪里、新资料摄入时做哪些动作、什么能改什么不能改、命名规则是什么、frontmatter 怎么写、index 和 log 怎么维护、回答完问题什么情况要写回 Wiki。

没有 Schema 的 Agent,很容易变成一个热心但不守规矩的实习生。会总结,会改写,会帮你生成内容,但不知道系统边界在哪。有了 Schema,LLM 才更像一个稳定的知识库维护者,不是每次都临场发挥,而是在同一套规则下持续工作。

Index 和 Log:两个很小但很关键的设计

Karpathy 特别提到两个文件:index.mdlog.md。看起来普通,非常关键。

index.md是内容导航。告诉人和 LLM:这个 Wiki 里有什么页面,每个大概讲什么,哪些是概念、哪些是实体、哪些是来源、哪些是综合分析。

Wiki 变大之后,LLM 不应该一上来就乱搜。应该先读 index,再决定进哪些页面。这很符合人类使用知识库的习惯——不是每次都全盘搜索,而是先看目录,再看相关章节。

log.md是时间线。记录 Wiki 什么时候摄入了什么资料、回答过什么问题、做过什么健康检查。

对 Agent 特别有用。Agent 跨会话时,很容易不知道最近发生了什么。有个结构化的 log,至少能快速恢复上下文:最近处理过哪些资料、更新过哪些页面、哪些问题还没解决。

这就像项目开发里的 changelog。没有它,靠记忆。有了它,知识库的演化过程有迹可循。

为什么 Obsidian 很适合干这件事

我现在越来越觉得,Obsidian 适合 AI 知识库,不只是因为有双链和图谱。

更重要的是,它底层是 Markdown 文件。

这件事非常关键。

LLM Agent 最擅长操作的,就是文本文件。可以读 Markdown、改 Markdown、新建文件、维护目录、加 YAML frontmatter、跑脚本检查链接、用 Git 做版本管理。

这就让 Obsidian 变成一个很适合 Agent 工作的界面。人用 Obsidian 浏览、审阅、跟踪图谱;Agent 在背后读写文件、维护链接、更新索引、追加日志。

这就是为什么我之前一直说,Obsidian 真正需要的不是再多一个 AI 聊天框,而是一个执行层。

聊天框只能回答你。执行层可以改你的知识库。

这两者不是一回事。没有执行层,Obsidian 还是个手动的笔记软件。接上 Agent,它才有可能变成一个持续演化的知识工作台。

落到 Content OS 里是这样

Karpathy 这篇给了我很好的验证:我现在做的 Content OS,本质上就是把 LLM Wiki 的思路落到内容生产场景里。

在我的系统里:

Source Note→ Raw sources 层。收集外部文章、视频、Gist、论文、工具介绍和案例。

Topic Note→ 选题 Wiki 层。不是简单收藏,而是把来源转化成可写的角度:目标读者是谁、痛点是什么、标题怎么起、提纲怎么搭、适合哪个账号。

Draft Note→ 生产层。把 Topic 继续编译成可发布的文章草稿。

Published Note→ 归档层。记录最终发布版本、标题、链接、发布时间和关联选题。

再往上,还有内容框架、命名规范、入库规则。这些就是 Schema。它们告诉 Agent:超级猛应该怎么写,文件怎么命名,什么内容进 Source,什么升级成 Topic,什么能进 Draft。

所以 Content OS 不是一个"更复杂的文件夹"。它更像给 AI Agent 用的内容生产 Wiki。

人负责判断方向,Agent 负责维护结构。这跟 Karpathy 讲的 LLM Wiki 是同一个底层逻辑。

真正的 AI 第二大脑,不是更会搜索,而是更会沉淀

很多人做 AI 知识库,第一反应是上向量数据库、embedding、RAG、更大的上下文。

有没有用?当然有。

但它们不是第一性问题。

第一性问题是:你的知识有没有沉淀成结构?

没有结构,再强的检索也只是在一堆散乱资料里临时找答案。有结构,哪怕一开始只是 Markdown、index、log、双链和一套规则,已经能跑出很强的复利。

Karpathy 这篇最打动我的地方就在这里。他没上来讲复杂基础设施,也没说必须上什么数据库。他讲的是一个更朴素但更关键的模式:

把原始资料放好。让 LLM 持续维护 Wiki。用 Schema 约束它的工作方式。把重要回答写回知识库。定期 lint,检查矛盾、孤立页面、缺失概念和过时信息。

这套东西并不玄。但比"上传 100 个文件然后问 AI"更像真正的第二大脑。

因为第二大脑的重点不是存储,是生长。

如果问我 Karpathy 这篇最值得记住的一句话,我会选:

Obsidian 是 IDE,LLM 是程序员,Wiki 是代码库。

这句话把 AI 知识库的方向讲得很清楚。

别只把 AI 当成问答框,也别只把知识库当成文件仓库。真正值得做的,是让 LLM 成为知识库的维护者,让 Wiki 成为持续复利的结构化资产。

RAG 解决的是:问的时候找得到。

LLM Wiki 解决的是:用过之后沉淀得下来。

这两者的差别,就是临时回答和长期知识资产的差别。

如果你已经在用 Obsidian、Claude Code、Codex、Hermes、NotebookLM 或任何 AI Agent 工具,我建议别只问"它能不能帮我回答问题",问一个更重要的:

它能不能帮我把回答,变成下一次还能继续用的知识?

能做到这一点,知识库才真正开始有复利。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
阿斯跟队:皇马即将迎来重要变革,计划签下3-4名关键球员

阿斯跟队:皇马即将迎来重要变革,计划签下3-4名关键球员

懂球帝
2026-05-11 15:10:23
乔治:夏天要把那种爆发力找回来 今年这方面对我影响很大

乔治:夏天要把那种爆发力找回来 今年这方面对我影响很大

北青网-北京青年报
2026-05-11 16:42:03
7万亿砸向“六张网”!旧基建落幕,新一轮造富机会在哪里?

7万亿砸向“六张网”!旧基建落幕,新一轮造富机会在哪里?

柏年说政经
2026-05-10 18:00:03
上海医保大招!原研药重返医院,差价谁掏?

上海医保大招!原研药重返医院,差价谁掏?

王二哥老搞笑
2026-05-11 15:22:53
拼爹还是拼自己?父亲是前外交部长,他哈佛毕业却挤公交搬啤酒箱

拼爹还是拼自己?父亲是前外交部长,他哈佛毕业却挤公交搬啤酒箱

南宗历史
2026-05-05 17:00:11
国资委 46 号令终身追责?可别担心了!只有这3类人才会被追责

国资委 46 号令终身追责?可别担心了!只有这3类人才会被追责

刘哥谈体育
2026-05-10 13:12:08
打什么电话比12345更管用?这些电话比它管用100倍,建议收藏好

打什么电话比12345更管用?这些电话比它管用100倍,建议收藏好

细说职场
2026-04-28 10:39:02
他信出来回家了,佩通坦等家人都来迎接,英拉的儿子也长大了很帅

他信出来回家了,佩通坦等家人都来迎接,英拉的儿子也长大了很帅

陈意小可爱
2026-05-11 16:09:37
那五个「吊」起的老人

那五个「吊」起的老人

家传编辑部
2026-05-10 19:05:10
打破惯例!访华前特朗普再做新安排,美专家叹气:是他主动要访华

打破惯例!访华前特朗普再做新安排,美专家叹气:是他主动要访华

吃货的分享
2026-05-11 09:37:06
都打张本美和,孙颖莎能赢,为何王曼昱输球?邓亚萍赛后总结来了

都打张本美和,孙颖莎能赢,为何王曼昱输球?邓亚萍赛后总结来了

体育大学僧
2026-05-11 08:42:42
从1-3惨败到3-0复仇!中国足球这口恶气,憋了整整4年

从1-3惨败到3-0复仇!中国足球这口恶气,憋了整整4年

杰丝聊古今
2026-05-11 16:21:37
中央明确!6月1日全国开始统一执行,居民自来水将迎7大变化

中央明确!6月1日全国开始统一执行,居民自来水将迎7大变化

美食格物
2026-05-10 15:13:10
鲁尼谈阿森纳争议判罚:只要看回放,就知道那肯定是个犯规

鲁尼谈阿森纳争议判罚:只要看回放,就知道那肯定是个犯规

懂球帝
2026-05-11 15:10:21
快讯!国际足联新消息!

快讯!国际足联新消息!

故事终将光明磊落
2026-05-11 09:51:52
多重催化剂共振,人民币在岸、离岸双双升破6.8

多重催化剂共振,人民币在岸、离岸双双升破6.8

第一财经资讯
2026-05-11 16:48:09
出狱后的雷政富沧桑感袭面而来,前后对比引人唏嘘

出狱后的雷政富沧桑感袭面而来,前后对比引人唏嘘

霹雳炮
2026-03-14 22:49:47
宿舍泡牛奶被批评?湖南不能泡牛奶大学火了

宿舍泡牛奶被批评?湖南不能泡牛奶大学火了

虔青
2026-05-11 14:00:40
安徽一女老师点外卖,发现骑手是曾经的学生:兼职赚钱,肯努力的人,永远都在发光

安徽一女老师点外卖,发现骑手是曾经的学生:兼职赚钱,肯努力的人,永远都在发光

潇湘晨报
2026-05-09 15:49:26
日乒男队主帅不甘心,盛赞梁靖崑的同时,称张本智和是输球责任人

日乒男队主帅不甘心,盛赞梁靖崑的同时,称张本智和是输球责任人

秋姐居
2026-05-11 16:47:10
2026-05-11 19:23:00
我不叫阿哏
我不叫阿哏
分享有趣、有用的故事!
436文章数 6730关注度
往期回顾 全部

科技要闻

黄仁勋:你们赶上了一代人一次的大机会

头条要闻

外交部介绍特朗普访华具体安排和中方期待

头条要闻

外交部介绍特朗普访华具体安排和中方期待

体育要闻

梁靖崑:可能是最后一届了,想让大家记住这个我

娱乐要闻

“孕妇坠崖案”王暖暖称被霸凌协商解约

财经要闻

多重催化剂共振,人民币汇率升破6.8

汽车要闻

吉利银河“TT”申报图曝光 电动尾翼+激光雷达

态度原创

亲子
教育
房产
艺术
时尚

亲子要闻

阿不力挖不力,这是谁的声音?

教育要闻

高考后别荒废!抓紧时间学雅思,未来多一种可能

房产要闻

产业赋能教育!翰林府与北师大的这场签约,绝不那么简单!

艺术要闻

陆抑非写竹,笔力遒劲

伊姐周日热推:电视剧《主角》;电视剧《良陈美锦》......

无障碍浏览 进入关怀版