网易首页 > 网易号 > 正文 申请入驻

用检索增强生成让大模型更强大,这里有个手把手的Python实现

0
分享至

选自towardsdatascience

作者:Leonie Monigatti

机器之心编译

编辑:Panda

自从人们认识到可以使用自己专有的数据让大型语言模型(LLM)更加强大,人们就一直在讨论如何有效地将 LLM 的一般性知识与专有数据整合起来。对此人们也一直在争论:微调和检索增强生成(RAG)哪个更合适?

本文首先将关注 RAG 的概念和理论。然后将展示可以如何使用用于编排(orchestration)的 LangChain、OpenAI 语言模型和 Weaviate 向量数据库来实现一个简单的 RAG。

检索增强生成是什么?

检索增强生成(RAG)这一概念是指通过外部知识源来为 LLM 提供附加的信息。这让 LLM 可以生成更准确和更符合上下文的答案,同时减少幻觉。

问题

当前最佳的 LLM 都是使用大量数据训练出来的,因此其神经网络权重中存储了大量一般性知识(参数记忆)。但是,如果在通过 prompt 让 LLM 生成结果时需要其训练数据之外的知识(比如新信息、专有数据或特定领域的信息),就可能出现事实不准确的问题(幻觉),如下截图所示:

因此,将 LLM 的一般性知识与附加上下文整合起来是非常重要的,这有助于 LLM 生成更准确且更符合上下文的结果,同时幻觉也更少。

解决方案

传统上讲,通过微调模型,可以让神经网络适应特定领域的或专有的信息。尽管这种技术是有效的,但其需要密集的计算,成本高,还需要技术专家的支持,因此就难以敏捷地适应不断变化的信息。

2020 年,Lewis et al. 的论文《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》提出了一种更为灵活的技术:检索增强生成(RAG)。在这篇论文中,研究者将生成模型与一个检索模块组合到了一起;这个检索模块可以用一个更容易更新的外部知识源提供附加信息。

用大白话来讲:RAG 之于 LLM 就像开卷考试之于人类。在开卷考试时,学生可以携带教材和笔记等参考资料,他们可以从中查找用于答题的相关信息。开卷考试背后的思想是:这堂考试考核的重点是学生的推理能力,而不是记忆特定信息的能力。

类似地,事实知识与 LLM 的推理能力是分开的,并且可以保存在可轻松访问和更新的外部知识源中:

参数化知识:在训练期间学习到的知识,以隐含的方式储存在神经网络权重之中。

非参数化知识:储存于外部知识源,比如向量数据库。

下图展示了最基本的 RAG 工作流程:

检索增强生成(RAG)的工作流程

检索:将用户查询用于检索外部知识源中的相关上下文。为此,要使用一个嵌入模型将该用户查询嵌入到同一个向量空间中,使其作为该向量数据库中的附加上下文。这样一来,就可以执行相似性搜索,并返回该向量数据库中与用户查询最接近的 k 个数据对象。

增强:然后将用户查询和检索到的附加上下文填充到一个 prompt 模板中。

生成:最后,将经过检索增强的 prompt 馈送给 LLM。

使用 LangChain 实现检索增强生成

下面将介绍如何通过 Python 实现 RAG 工作流程,这会用到 OpenAI LLM 以及 Weaviate 向量数据库和一个 OpenAI 嵌入模型。LangChain 的作用是编排。

必要前提

请确保你已安装所需的 Python 软件包:

  • langchain,编排
  • openai,嵌入模型和 LLM
  • weaviate-client,向量数据库

#!pip install langchain openai weaviate-client

另外,在根目录下用一个 .env 文件定义相关环境变量。你需要一个 OpenAI 账户来获取 OpenAI API Key,然后在 API keys(
https://platform.openai.com/account/api-keys )「创建新的密钥」。

OPENAI_API_KEY=""

然后,运行以下命令来加载相关环境变量。

import dotenvdotenv.load_dotenv()

准备工作

在准备阶段,你需要准备一个作为外部知识源的向量数据库,用于保存所有的附加信息。这个向量数据库的构建包含以下步骤:

收集并载入数据

将文档分块

对文本块进行嵌入操作并保存

第一步是收集并载入数据。举个例子,如果我们使用拜登总统 2022 年的国情咨文作为附加上下文。LangChain 的 GitHub 库提供了其原始文本文档。为了载入这些数据,我们可以使用 LangChain 内置的许多文档加载工具。一个文档(Document)是一个由文本和元数据构成的词典。为了加载文本,可以使用 LangChain 的 TextLoader。

原始文档地址:
https://raw.githubusercontent.com/langchain-ai/langchain/master/docs/docs/modules/state_of_the_union.txt

import requestsfrom langchain.document_loaders import TextLoader

url = "https://raw.githubusercontent.com/langchain-ai/langchain/master/docs/docs/modules/state_of_the_union.txt"res = requests.get(url)with open("state_of_the_union.txt", "w") as f: f.write(res.text)

loader = TextLoader('./state_of_the_union.txt')documents = loader.load()

接下来,将文档分块。因为文档的原始状态很长,无法放入 LLM 的上下文窗口,所以就需要将其拆分成更小的文本块。LangChain 也有很多内置的拆分工具。对于这个简单示例,我们可以使用 CharacterTextSplitter,其 chunk_size 设为 500,chunk_overlap 设为 50,这样可以保持文本块之间的文本连续性。

from langchain.text_splitter import CharacterTextSplittertext_splitter = CharacterTextSplitter(chunk_size=500, chunk_overlap=50)chunks = text_splitter.split_documents(documents)

最后,对文本块进行嵌入操作并保存。为了让语义搜索能够跨文本块执行,就需要为每个文本块生成向量嵌入,并将它们与它们的嵌入保存在一起。为了生成向量嵌入,可以使用 OpenAI 嵌入模型;至于储存,则可使用 Weaviate 向量数据库。通过调用 .from_documents (),可以自动将文本块填充到向量数据库中。

from langchain.embeddings import OpenAIEmbeddingsfrom langchain.vectorstores import Weaviateimport weaviatefrom weaviate.embedded import EmbeddedOptions

client = weaviate.Client( embedded_options = EmbeddedOptions())

vectorstore = Weaviate.from_documents( client = client, documents = chunks, embedding = OpenAIEmbeddings(), by_text = False)

步骤 1:检索

填充完向量数据库之后,我们可以将其定义成一个检索器组件,其可根据用户查询和嵌入块之间的语义相似性获取附加上下文。

retriever = vectorstore.as_retriever()

步骤 2:增强

from langchain.prompts import ChatPromptTemplate

template = """You are an assistant for question-answering tasks. Use the following pieces of retrieved context to answer the question. If you don't know the answer, just say that you don't know. Use three sentences maximum and keep the answer concise.Question: {question} Context: {context} Answer:"""prompt = ChatPromptTemplate.from_template(template)

print(prompt)

接下来,为了使用附加上下文增强 prompt,需要准备一个 prompt 模板。如下所示,使用 prompt 模板可以轻松地定制 prompt。

步骤 3:生成

最后,我们可以为这个 RAG 流程构建一个思维链,将检索器、prompt 模板和 LLM 链接起来。定义完成 RAG 链之后,便可以调用它了。

from langchain.chat_models import ChatOpenAIfrom langchain.schema.runnable import RunnablePassthroughfrom langchain.schema.output_parser import StrOutputParser

llm = ChatOpenAI(model_name="gpt-3.5-turbo", temperature=0)

rag_chain = ( {"context": retriever, "question": RunnablePassthrough()} | prompt | llm | StrOutputParser() )

query = "What did the president say about Justice Breyer"rag_chain.invoke(query)"The president thanked Justice Breyer for his service and acknowledged his dedication to serving the country. The president also mentioned that he nominated Judge Ketanji Brown Jackson as a successor to continue Justice Breyer's legacy of excellence."

下图展示了这个具体示例的 RAG 流程:

总结

本文介绍了 RAG 的概念,其最早来自 2020 年的论文《Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks》。在介绍了 RAG 背后的理论(包括动机和解决方案)之后,本文又介绍了如何用 Python 实现它。本文展示了如何使用 OpenAI LLM 加上 Weaviate 向量数据库和 OpenAI 嵌入模型来实现一个 RAG 工作流程。其中 LangChain 的作用是编排。

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相关推荐
热点推荐
哈梅内伊首次表态:支持对话!但骚乱必遭镇压

哈梅内伊首次表态:支持对话!但骚乱必遭镇压

看看新闻Knews
2026-01-04 19:01:17
32名古巴人在美强行控制委总统过程中死亡

32名古巴人在美强行控制委总统过程中死亡

澎湃新闻
2026-01-05 10:13:05
马杜罗还有救,联合国15国开大会,中方告示特朗普,代理总统已定

马杜罗还有救,联合国15国开大会,中方告示特朗普,代理总统已定

林子说事
2026-01-05 17:31:30
中央定调了!房地产回归民生,未来5年,普通人能买得起房了吗 ?

中央定调了!房地产回归民生,未来5年,普通人能买得起房了吗 ?

毒sir财经
2026-01-05 16:12:45
让欧美集体破防!空无一人的洋山港能创下世界纪录,到底有啥秘密

让欧美集体破防!空无一人的洋山港能创下世界纪录,到底有啥秘密

史智文道
2026-01-04 14:30:41
突破4000点!脑机接口概念全线爆发,龙头“一”字涨停!低空经济站上风口,融资资金出手加仓5股

突破4000点!脑机接口概念全线爆发,龙头“一”字涨停!低空经济站上风口,融资资金出手加仓5股

数据宝
2026-01-05 12:27:02
近18场0球!1.5亿巨星再遭皇马球迷狂嘘 被换下黑脸+赛后径直离场

近18场0球!1.5亿巨星再遭皇马球迷狂嘘 被换下黑脸+赛后径直离场

我爱英超
2026-01-05 01:45:05
高中女同桌偷偷帮我充了两年饭卡,8年后她家道中落,我找上了门

高中女同桌偷偷帮我充了两年饭卡,8年后她家道中落,我找上了门

云端小院
2025-12-25 09:36:37
“新冠疫苗之父”落马,荣誉清零!打过三针的网友慌了

“新冠疫苗之父”落马,荣誉清零!打过三针的网友慌了

胡严乱语
2025-12-07 15:51:07
高峰也没想到,他当年狠心抛弃的儿子,如今开始给母亲那英争光了

高峰也没想到,他当年狠心抛弃的儿子,如今开始给母亲那英争光了

阿讯说天下
2026-01-05 16:10:11
搞笑求婚冷笑话,阿强来到女友家吃饭,准备向女友的父亲求婚女友告诫道!

搞笑求婚冷笑话,阿强来到女友家吃饭,准备向女友的父亲求婚女友告诫道!

天天明星
2026-01-04 15:13:56
重要赛事!1月5晚上21:30!中央5套CCTV5、CCTV5+直播节目表

重要赛事!1月5晚上21:30!中央5套CCTV5、CCTV5+直播节目表

皮皮观天下
2026-01-05 09:27:17
连续7个涨停板!股民:开心到无法形容!

连续7个涨停板!股民:开心到无法形容!

数据挖掘分析
2026-01-05 15:13:25
发现没,大家都开始戒烟了!

发现没,大家都开始戒烟了!

黯泉
2026-01-04 22:11:39
颜丙涛解禁复出,6月Q,School后重返职业赛场

颜丙涛解禁复出,6月Q,School后重返职业赛场

李絙在北漂
2026-01-05 15:26:07
中国最败家的儿子:为追求女明星与文强约架,在天上人间激起动荡

中国最败家的儿子:为追求女明星与文强约架,在天上人间激起动荡

凯裕说故事
2024-12-19 10:12:44
折磨人的生理反应有哪些?网友:排卵期就想穿性感一点

折磨人的生理反应有哪些?网友:排卵期就想穿性感一点

带你感受人间冷暖
2026-01-04 00:10:07
就在刚刚,29家A股上市公司发布重大利好消息,看看都有哪些?

就在刚刚,29家A股上市公司发布重大利好消息,看看都有哪些?

股市皆大事
2026-01-05 08:47:14
年薪50万被妻子嫌弃后续:丈夫身份曝光,工资全上交,挨骂是日常

年薪50万被妻子嫌弃后续:丈夫身份曝光,工资全上交,挨骂是日常

鋭娱之乐
2026-01-04 19:58:22
2026年新能源车企第一雷,炸了!

2026年新能源车企第一雷,炸了!

品牌头版
2026-01-05 16:08:13
2026-01-05 19:24:49
机器之心Pro incentive-icons
机器之心Pro
专业的人工智能媒体
12060文章数 142529关注度
往期回顾 全部

科技要闻

4100家科技企业集结赌城,CES揭开AI新战场

头条要闻

美对委动手致欧盟立场分裂 两元首先后发文内容南辕北辙

头条要闻

美对委动手致欧盟立场分裂 两元首先后发文内容南辕北辙

体育要闻

41岁詹皇26+10+6又迎里程碑 湖媒赞GOAT

娱乐要闻

黄宗泽夺双料视帝,泪洒颁奖台忆往昔

财经要闻

李迅雷:扩内需要把重心从"投"转向"消"

汽车要闻

海狮06EV冬季续航挑战 "电"这事比亚迪绝对玩明白了

态度原创

家居
数码
教育
时尚
手机

家居要闻

白色大理石 奢华现代

数码要闻

追风者公布Matrix系列机箱,全系内置LED织物点阵屏幕

教育要闻

到底需不需要让学生怕你,我一个视频,给你说透!

这些才是真正接地气的穿搭!裤子基础、外套保暖,简单又自然

手机要闻

iQOO Z11 Turbo新机实验室摸底跑分公布,常温突破359万分

无障碍浏览 进入关怀版