网易首页 > 网易号 > 正文 申请入驻

2026 RAG 选型指南:Vector、Graph、Vectorless 该怎么挑

0
分享至


检索找到了某个语义上接近的片段,LLM 围绕它写出一段文字,但是没人发现答案是错的。这是 vector RAG 调参解决不了的失败问题。而现在有2种方法可以解决他:

  • GraphRAG 增加了一层 knowledge graph,用来描绘实体之间的关系。
  • Vectorless RAG 完全抛弃向量数据库,让 LLM 直接对文档结构进行推理。

这篇文章将介绍它们之间的差异,让你不必花三周读论文也能为自己的系统做出正确选择。



为什么传统 Vector RAG 正在失效

Vector RAG 之所以成为标准是因为它真的能用。

把文档分块,对块做 embedding,然后按相似度检索。对简单查询来说:快、便宜、够用。

但是Vector RAG 会出现三种失败模式。

第一,它没有"关系"这个概念。语义相似度找的是"听起来像 query"的 chunk,无法跟踪"第 4 节中的法规交叉引用了附录 C 中的例外条款"。这两节在 embedding 空间里可能相距很远,即使其中一节定义了另一节。模型永远看不到这种关联。

第二,chunking 破坏了结构。把一份财务报告切成 512-token 的窗口,就把表格和它的表头、脚注和它所限定的数字、多段答案和它们的上下文都断开了。一个单元格里的数字脱离列标题就毫无意义,而 chunking 会把这种关系剥离掉。这不是 chunk size 能调好的问题,是架构层面的局限。

第三,当查询变复杂,准确率会崩溃。在 Diffbot 的 benchmark 上,没有 knowledge graph 支持时,每个 query 涉及的实体数超过 5 个之后,准确率会退化到 0%。Metrics & KPIs 与 Strategic Planning 这两个类别里,传统 vector RAG 在 schema-bound query 上的准确率都是 0,不是低是零。

GraphRAG:当关系本身就是答案



GraphRAG 不替代向量搜索。它增加了一层向量搜索本质上无法复现的能力:一张关于事物如何彼此关联的地图。

不再把文档集合当作一袋 chunk,而是构建一张 knowledge graph。实体(人、公司、概念、法规)成为节点,实体之间的关系成为边。这张图能以向量相似度永远做不到的方式,把"GDPR Article 17 由 European Data Protection Board 执行"这样的关系刻画出来。

工作流程分步如下:

GRAPHRAG ARCHITECTURE
Documents

Entity Extraction (LLM identifies: people, orgs, concepts)

Relationship Extraction (LLM identifies: who connects to what and how)

Community Detection (Leiden algorithm groups related entities)

Community Summaries (LLM summarizes each cluster)

Knowledge Graph (nodes + edges stored in graph database)

这里最大的一个误区是用 GraphRAG 必须先有一张现成的 knowledge graph。其实不需要,因为可以直接用 LLM 来构建它。抽取 pipeline 会读取你的文档并自动构建图。

GraphRAG 真正擅长的事情:

  • 多跳问题:"Company A 使用的供应商里,哪些同时供应 Company B 的竞争对手?"
  • 全局综合:"这 500 篇研究论文里有哪些主要主题?"
  • 关系型查询,需要顺着连接走,而不只是找相似文本
  • 监管合规分析,其中交叉引用承担关键作用

GraphRAG 在企业场景下相比传统 RAG 实现了 72–83% 的 comprehensiveness,准确率提升 3.4 倍。

最初的 Microsoft GraphRAG 方案,索引一份典型企业语料库需要 $20–500,因为它需要 LLM 调用来从每一份文档中抽取每一个实体和关系。Microsoft 在 2025 年发布的 LazyGraphRAG 改变了这个问题:把摘要延迟到查询时再计算,索引成本降至完整 GraphRAG 的 0.1%,代价是每个查询多 2–8 秒。

GraphRAG 失效的场景:

  • 简单事实查询。"What is our refund policy?" 这种问题不需要 knowledge graph。
  • 实时知识。图索引需要时间,所以在快速变化的数据上会滞后。
  • 小型、简单的文档集合,基础设施成本会盖过收益。
  • 研究表明,当数据规模达到 5–15 million tokens 时,性能提升会进入平台期,因为图遍历在超大数据集上会失去区分度。

"GraphRAG 不是更好的 RAG。它是为另一类问题设计的检索方法。"

如果你为简单事实查询去搭建它,那就是花了几千美元的索引基础设施,去回答一个 50 行的向量 pipeline 在 200ms 内就能解决的问题。

Vectorless RAG:当结构胜过相似度



Vectorless RAG 走的是更难的一个方向,它不是在已有的检索模型上加一层图,而是直接发问:如果整个检索模型本身就是错误的起点呢?

PageIndex 是 vectorless RAG 的主要框架,由 VectifyAI 的 Mingtian Zhang 和 Yu Tang 在 2025 年 9 月发布,在 GitHub 上获得了超过 23,000 个 star。它的核心借鉴自 AlphaGo:不要穷举搜索,而是用学到的策略进行智能导航。

传统 RAG 找的是在语义上与 query 相似的 chunk;PageIndex 让 LLM 推理"答案应该在文档结构的哪个位置",然后直接导航过去。这就是人类专家实际使用文档的方式——打开它,扫一眼目录,去到相关章节,读那张表。

Vectorless RAG 是怎么工作的:

VECTORLESS RAG ARCHITECTURE (PageIndex)
Document Ingestion:
PDF/Doc → Tree Indexing (preserves natural hierarchy)
→ Chapter → Section → Subsection → Table cells
NO chunking. NO embeddings. NO vector database.
Tree structure looks like:
├── Chapter 1: Revenue
│ ├── 1.1 Q1 Results
│ │ ├── Table: Revenue by Region
│ │ └── Footnotes: Currency adjustments
│ └── 1.2 Q2 Results
└── Chapter 2: Expenses
Query Time:
User Query → LLM inspects Table of Contents tree
→ LLM reasons: "Revenue figures would be in Chapter 1"
→ LLM navigates to Chapter 1.1, retrieves context
→ LLM generates answer with exact citations
If incomplete → LLM navigates further → Iterates until answer is found

这正是专家阅读文档的方式。不是关键词搜索也不是 embedding 相似度。打开报告,扫目录,去到相关章节,读相关表格——PageIndex 教 LLM 做的就是这件事。

由 PageIndex 驱动的 Mafin 2.5 在 FinanceBench 上达到了 98.7% 的准确率。传统 vector RAG 约 50%,无 RAG 的 GPT-4o 约 31%,Perplexity 约 45%。相对 vector RAG 49 个百分点的差距,不是渐进式改进,是另一个量级的结果。

差距这么大的原因有三个:

  • Cross-reference following:PageIndex 通过树结构跟踪 "see Appendix G"。向量相似度对文档引用没有任何概念。
  • Structure preservation:表格的表头、脚注、单元格关系作为树节点保留下来。chunking 会破坏这些。
  • Multi-step reasoning:需要从两个不同章节取数据的问题,由迭代式导航来处理,而不是一次性检索。

PageIndex 也不是通用替代品。它是一种特化工具,适合"准确性高到值得付出更高开销"的场景。

"vectorless" 这个说法引来过质疑:PageIndex"完全是通过对 LLM 的迭代和递归调用来实现的"。它并没有消除依赖,只是把向量近似换成了 LLM 推理近似。两种方式都有成本。

那些 LLM 调用会累积。如果你有数百万份文档而 query 又简单,vectorless RAG 会比 vector RAG 慢、贵,且没有有意义的精度提升。这种开销只有在准确性是首要约束时才划得来。

深度对比

下面是这三种架构在生产环境中真正会出现差异的几个维度:



GraphRAG 和 Vectorless RAG 不是彼此竞争的关系。它们解决的是不同问题。

  • GraphRAG 适合需要在大规模文档集合中理解关系的场景。
  • Vectorless RAG 适合需要从复杂文档的内部结构中得到精确答案的场景。

2026 年新的生产模式是 Adaptive RAG:一个 query classifier 根据复杂度,把每个 query 路由到合适的 pipeline。简单 query 走 vector RAG(快、便宜);复杂 query 走 agentic RAG;关系型 query 走 GraphRAG。这样可以达到最优的成本-质量权衡。

实际应用模式

GraphRAG 真正发挥价值的场景,几乎都是关系密集型的:

  • 竞争情报:"我们所在市场里,哪些公司和我们在评估的物流商也是合作关系?"
  • 监管合规:跨司法管辖区映射各项法规之间如何交叉引用
  • 研究综合:在数千篇论文中找到任何单篇都未明确指出的关联
  • Cedars-Sinai 拥有 1.6 million 条边的阿尔茨海默病研究图,这类医疗应用就是这一方向的早期证据

Vectorless RAG 取胜的地方,是那些"差不多就行"完全不可接受的精度敏感领域:

  • 金融分析:来自 SEC 备案的精确数字,50% 准确率的 RAG 系统在这里是危险的
  • 法律文档审阅:合同条款抽取,其上下文依赖具有关键作用
  • 技术文档:在结构化规范中作答,表格关系很重要的场景
  • 任何文档内部结构和文本本身一样有意义的领域

传统 Vector RAG 仍然占优的地方:

  • 大型、非结构化的文本集合(博客文章、邮件归档、新闻文章)
  • 简单的语义搜索,embedding 相似度能可靠地找到正确内容
  • 高吞吐、低复杂度的 query,速度和成本是主要约束
  • 原型与早期阶段系统,图索引或树索引的开销暂时不划算

决策框架:哪种架构适合你的问题



在做决定之前可以先回答这四个问题。

用户在问什么样的问题?

  • "文档 X 关于 Y 是怎么说的?" → Vector RAG 或 Vectorless RAG
  • "A 在所有文档里和 B 是什么关系?" → GraphRAG
  • "给我这张表里的精确数字" → Vectorless RAG

准确性有多重要?

  • "差不多就行"可以接受 → Vector RAG
  • 错误会带来真实后果(金融、法律、医疗) → Vectorless RAG 或 GraphRAG

文档结构是什么样的?

  • 非结构化文本、长文章、对话内容 → Vector RAG
  • 结构化报告、备案、有内部引用的合同 → Vectorless RAG
  • 大型集合,跨文档存在相互关联的实体 → GraphRAG

延迟和成本约束是什么?

  • 亚秒级响应、高并发、预算紧 → Vector RAG
  • 中等延迟可接受,准确性优先 → Vectorless RAG
  • 可接受前期索引成本,需要处理复杂关系 → GraphRAG

目前生产系统实际在做什么

没有任何一种架构能在所有场景里通吃,在做最好的 AI 系统的团队,并不是只挑一种方案而是在做路由。

入口处坐着一个 query classifier。简单的语义问题走 vector RAG;复杂的关系问题走 GraphRAG;结构化文档查询走 vectorless RAG。每个 query 根据自己真正需要什么,找到对应的检索路径。

这比单一 pipeline 更难搭。但在规模化场景下,它准确性更高、成本更低——大多数系统里,绝大部分 query 都是简单的,简单的 query 不需要图遍历或迭代式 LLM 导航的开销。

Adaptive RAG 模式按 query 复杂度做路由:

User Query → Complexity Classifier

Simple? → Vector RAG (fast, cheap)
Complex? → GraphRAG or Vectorless RAG (accurate)
Relationship? → GraphRAG
Structured doc? → Vectorless RAG

这不是理论,而是认真的工程团队此刻正在向生产环境交付的东西。

总结

那些上线了有问题的 RAG 系统的团队并不是工程能力差。他们正确地使用了 vector RAG。只不过 vector RAG 不是回答用户真正问的那些问题的合适工具。

RAG 已经不再是一种技术而是三种共用一个名字的检索方式。

Vector RAG 是乐观的匹配:找到接近的东西,然后期望它是对的。

GraphRAG 是结构性的映射:在问题到来之前就已经知道关系。

Vectorless RAG 是有意识的导航:推理答案在哪里,而不是基于相似度分数去猜。

理解这一区别的团队,正在搭建一些检索不再是瓶颈的系统。不理解的团队,则在不断打磨 prompt,去掩盖那些一开始就注定无法在复杂场景下工作的检索。

https://avoid.overfit.cn/post/2f4642ffd6f8405aab78e4e3c574620f

by Divy Yadav

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
秦始皇子孙后代被找到,这四个姓氏都是他的后裔,有你的姓氏吗?

秦始皇子孙后代被找到,这四个姓氏都是他的后裔,有你的姓氏吗?

兴趣知识
2026-05-11 18:04:48
为什么中国女排没有朱婷的位置,真相大白了,她不会回来了

为什么中国女排没有朱婷的位置,真相大白了,她不会回来了

体育快递小哥哥
2026-05-11 16:32:52
尴尬!网红神裤成审美灾难,网友称市场有需求,有些人恨不得裸奔

尴尬!网红神裤成审美灾难,网友称市场有需求,有些人恨不得裸奔

火山詩话
2026-05-09 19:50:52
《教父》柯里昂的告诫:利益面前,能力、忠诚都不算数,真正决定你地位的,是这两个不外露的筹码

《教父》柯里昂的告诫:利益面前,能力、忠诚都不算数,真正决定你地位的,是这两个不外露的筹码

心理观察局
2026-05-10 09:23:15
张继科早看出张本智和缺陷:越靠近11分他就越变形 梁大胖请我吃饭

张继科早看出张本智和缺陷:越靠近11分他就越变形 梁大胖请我吃饭

风过乡
2026-05-11 07:49:18
OpenClaw终于长出手和眼!Peter正式发布Peekaboo v3,一日三更

OpenClaw终于长出手和眼!Peter正式发布Peekaboo v3,一日三更

新智元
2026-05-11 18:33:09
章子怡“泼墨门”主谋,叶剑英儿媳,离婚后转战商圈竟成资本大鳄

章子怡“泼墨门”主谋,叶剑英儿媳,离婚后转战商圈竟成资本大鳄

财叔
2026-05-11 08:40:12
景美人更美

景美人更美

蓝色海洋009
2026-05-11 10:35:22
打游戏该买多大显示器?27寸未必适合你

打游戏该买多大显示器?27寸未必适合你

薛定谔的BUG
2026-05-11 02:38:47
美媒:雄鹿&维拉老板艾登斯与46岁华裔女子发生性关系,女方勒索12亿美元

美媒:雄鹿&维拉老板艾登斯与46岁华裔女子发生性关系,女方勒索12亿美元

懂球帝
2026-05-11 09:41:18
你们都是什么时候对男女之事开窍的?网友:果然还是拦不住有心人

你们都是什么时候对男女之事开窍的?网友:果然还是拦不住有心人

夜深爱杂谈
2026-02-21 21:37:02
访华团落地不到7天,巴外长便公开质问中国:嘴上尊重,骨头很硬

访华团落地不到7天,巴外长便公开质问中国:嘴上尊重,骨头很硬

素衣读史
2026-05-11 21:54:32
250亿!赖清德窜访代价来了,斯威士兰开始要债 卢秀燕却声援绿营

250亿!赖清德窜访代价来了,斯威士兰开始要债 卢秀燕却声援绿营

闻识
2026-05-10 18:17:01
从后天起!总台央一、央八黄金档将播3部大剧,你想追哪部?

从后天起!总台央一、央八黄金档将播3部大剧,你想追哪部?

阿废冷眼观察所
2026-05-11 19:58:55
1986年的运10下马案,位列中国30年重大间谍案首位,真相令人扼腕

1986年的运10下马案,位列中国30年重大间谍案首位,真相令人扼腕

干史人
2026-01-12 22:07:50
DO:利物浦明确斯洛特下赛季留任;科纳特续约谈判仍处僵局

DO:利物浦明确斯洛特下赛季留任;科纳特续约谈判仍处僵局

懂球帝
2026-05-12 04:34:04
特朗普怎么都没想到:他人都还没有到中国,日韩两国就都“反了”

特朗普怎么都没想到:他人都还没有到中国,日韩两国就都“反了”

西楼知趣杂谈
2026-05-11 20:43:44
敢介入台海就直面核弹,法国候选人梅朗雄立场明确,马克龙将下台

敢介入台海就直面核弹,法国候选人梅朗雄立场明确,马克龙将下台

知法而形
2026-05-11 11:41:57
林诗栋跳上球台庆祝引日本网友热议,后者称“这种行为就该罚出场”

林诗栋跳上球台庆祝引日本网友热议,后者称“这种行为就该罚出场”

懂球帝
2026-05-11 15:10:21
山姆欠租887万冲上热搜!结果大反转,网友:原来是个大冤种

山姆欠租887万冲上热搜!结果大反转,网友:原来是个大冤种

雷科技
2026-05-11 17:02:13
2026-05-12 04:44:49
deephub incentive-icons
deephub
CV NLP和数据挖掘知识
1990文章数 1461关注度
往期回顾 全部

科技要闻

黄仁勋:你们赶上了一代人一次的大机会

头条要闻

母女二人一年用水量高达400多吨 警方发现背后隐情

头条要闻

母女二人一年用水量高达400多吨 警方发现背后隐情

体育要闻

梁靖崑:可能是最后一届了,想让大家记住这个我

娱乐要闻

“孕妇坠崖案”王暖暖称被霸凌协商解约

财经要闻

宗馥莉罢免销售负责人 部分业务将外包

汽车要闻

吉利银河“TT”申报图曝光 电动尾翼+激光雷达

态度原创

艺术
亲子
本地
公开课
军事航空

艺术要闻

震撼!Nicole Nodland镜头下的绝美时尚女神!

亲子要闻

你们都喜欢哪些科目啊?

本地新闻

用苏绣的方式,打开江西婺源

公开课

李玫瑾:为什么性格比能力更重要?

军事要闻

特朗普:伊朗的回应“完全不可接受”

无障碍浏览 进入关怀版