来源:市场资讯
(来源:磐创AI)
开源项目观察LLM Wiki:用 LLM 构建个人知识库的新范式你的知识库,可能做错了
大多数人的 LLM + 文档体验是这样的:
上传一堆文件
提问时,LLM 检索相关片段
生成答案
这叫 RAG。它有用,但有一个致命缺陷:LLM 每次都在重新发现知识。
你问一个需要综合 5 个文档的复杂问题,LLM 必须每次都重新找到并拼凑相关片段。没有积累。没有沉淀。
Notion AI、NotebookLM、ChatGPT 文件上传——都在这样工作。
另一种思路:LLM Wiki
与其每次从原始文档检索,不如让 LLM 增量构建和维护一个持久的 Wiki。
当添加新来源时,LLM 不只是索引它,而是:
阅读并提取关键信息
整合到现有 Wiki 中
更新实体页面、主题摘要
标记新旧数据矛盾
强化或挑战演化的综合
知识编译一次,然后持续更新。
关键区别:Wiki 是一个持久、复利的产物。 交叉引用已经存在,矛盾已经标记,综合已经反映所有读过的内容。每加一个来源、每问一个问题,Wiki 都变得更丰富。
核心架构:三层结构
第一层:原始来源
你策划的源文档集合。文章、论文、图片、数据文件。
不可变——LLM 读取但不修改。这是你的真相来源。
第二层:Wiki
LLM 生成的 Markdown 文件目录。摘要、实体页面、概念页面、比较、概览、综合。
LLM 完全拥有这一层。创建页面、更新页面、维护交叉引用、保持一致性。你读,LLM 写。
第三层:Schema
一个文档(如 CLAUDE.md 或 AGENTS.md),告诉 LLM Wiki 如何结构化、遵循什么约定、摄入来源时执行什么工作流。
这是关键配置文件——让 LLM 成为有纪律的 Wiki 维护者,而不是通用聊天机器人。
实际应用场景
个人成长:跟踪目标、健康、心理、自我提升——归档日记、文章、播客笔记,随时间构建结构化的自我图景。
深度研究:在数周或数月内深入研究一个主题——阅读论文、文章、报告,增量构建全面的 Wiki 和演化的论点。
阅读一本书:逐章归档,构建人物、主题、情节线索页面。读完时有丰富的伴侣 Wiki。想想《指环王》粉丝 Wiki——成千上万互连页面覆盖角色、地点、事件、语言,由志愿者社区多年构建。你可以在阅读时个人构建类似的东西,LLM 做所有交叉引用和维护。
团队/商业:由 LLM 维护的内部 Wiki,由 Slack 线程、会议转录、项目文档、客户电话喂养。可能有人在环审查更新。Wiki 保持最新,因为 LLM 做没人愿意做的维护工作。
核心操作
1. Ingest(摄入)
你把新来源放入原始集合,告诉 LLM 处理它。
典型流程:
LLM 阅读来源
与你讨论关键要点
在 Wiki 中写摘要页面
更新索引
更新相关实体和概念页面
在日志中追加条目
一个来源可能触及 10-15 个 Wiki 页面。
2. Query(查询)
你针对 Wiki 提问。LLM 搜索相关页面、阅读、综合带引用的答案。
重要洞察:好的答案可以作为新页面归档回 Wiki。 你要求的比较、分析、发现的连接——这些有价值,不应该消失在聊天历史中。
这样,你的探索像摄入来源一样在知识库中复利。
3. Lint(检查)
定期让 LLM 健康检查 Wiki:
页面间矛盾
已被新来源取代的过时声明
没有入链的孤儿页面
重要概念提到但没有自己的页面
缺失的交叉引用
可以用网络搜索填补的数据空白
LLM 擅长建议新问题调查、新来源寻找。这保持 Wiki 随增长保持健康。
两个特殊文件
index.md(索引)
内容导向。Wiki 中所有内容的目录——每个页面带链接、一行摘要、可选元数据(日期、来源数量)。按类别组织(实体、概念、来源等)。
LLM 每次摄入时更新。回答查询时,LLM 先读索引找相关页面,再深入。这在中等规模(~100 来源、~数百页面)下工作得惊人好,避免基于嵌入的 RAG 基础设施需求。
log.md(日志)
时间导向。发生什么和何时的只追加记录——摄入、查询、检查。
每个条目以一致前缀开始(如 ## [2026-04-02] ingest | Article Title),日志变得可用简单 Unix 工具解析——grep "^## \[" log.md | tail -5 给你最后 5 条。
日志给你 Wiki 演化的时间线,帮助 LLM 理解最近做了什么。
为什么这有效
维护知识库的繁琐部分不是阅读或思考——是簿记。
更新交叉引用、保持摘要当前、注意新数据何时与旧主张矛盾、维护跨数十页的一致性。人类放弃 Wiki 是因为维护负担增长比价值快。
LLM 不会厌倦,不会忘记更新交叉引用,可以在一次传递中触及 15 个文件。Wiki 保持维护,因为维护成本接近零。
人的工作是策划来源、指导分析、问好问题、思考这一切意味着什么。LLM 的工作是其他一切。
工具提示
- Obsidian Web Clipper
:浏览器扩展,将网页文章转为 Markdown。快速将来源放入原始集合。
- 下载图片到本地
:在 Obsidian 设置中配置附件文件夹路径,绑定快捷键下载附件。让 LLM 直接查看和引用图片。
- Obsidian 图视图
:查看 Wiki 形状的最佳方式——什么连接什么、哪些页面是枢纽、哪些是孤儿。
- Marp
:基于 Markdown 的幻灯片格式。从 Wiki 内容直接生成演示文稿。
- Dataview
:Obsidian 插件,对页面 frontmatter 运行查询。如果 LLM 在 Wiki 页面添加 YAML frontmatter,Dataview 可生成动态表格和列表。
- Wiki 就是 Git 仓库
:你免费获得版本历史、分支、协作。
LLM Wiki 代表了个人知识管理的新范式:
- 不是 RAG 的每次重新发现
- 而是持久的、复利的知识编译
这个想法与 Vannevar Bush 1945 年的 Memex 愿景精神相关——个人的、策划的知识存储,文档间有联想路径。Bush 无法解决的是:谁做维护?
LLM 解决了这个问题。
你不需要完全照搬这个模式。它可以非常简单:一个 Markdown 文件夹、一个索引、一个 LLM 助手。重要的是模式本身:让 LLM 做簿记,你做思考和策划。
Obsidian:https://obsidian.md
Marp:https://marp.app
qmd(本地搜索引擎):https://github.com/tobi/qmd
Vannevar Bush, "As We May Think", 1945
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.