众所周知,RAG的核心是检索和增强。其具体流程是当我们向一个简单的RAG系统提问时,RAG系统可根据问题特征,到数据库中检索,得到相关片段后,传输给大模型,让大模型做答案生成。
这样的RAG系统在应对具体问题时,可以较好地检索到相关片段,但当我们的问题变得宽泛起来时,就不那么适用了。
比如,我们有一篇文章,有好几个章节。当我们想问具体某个章节的知识点时,传统的RAG系统,在理想情况下可以锁定到知识点相关文本片段,可当我们问的问题没那么具体时,比如”这篇文章中第2章讲了什么内容?“、”这篇文章讲了什么内容时”,再按照原来检索逻辑就不适配了,因为这个时候的颗粒度不再是片段,而更为宏观,这个时候就不得不引入多知识源的RAG流程!
简单RAG流程的痛点
从引言部分的案例可以了解到,一个简单的RAG流程往往由两部分组成:检索、生成。它需要利用外部知识源为LLM提供垂直领域的上下文信息,减少幻觉生成。但,简单的单一知识源的RAG流程却会有几个限制:

-
知识源单一:简单的RAG系统往往只考虑一个外部知识源,不能满足复杂多样的业务需求; -
检索方式单一:面对不同的业务需求,需采用的检索方式不一样,比如有的适用向量检索、有的则需要做关键词匹配; -
对问题处理粗暴:由于只具备单一的知识源及检索方式,自然也缺乏对问题做深入分析的能力。
为了实现多知识源的效果,常规处理思路是在前面检索模块前,增加一个意图识别模块,用于任务分发,本文基于llama_index
和最近很火的deepseek
进行了探索。
构建多知识源的RAG流程
流程
-
用户输入问题; -
路由查询引擎利用deepseek分析问题类型; -
如果是概括性问题则查询 summary_query_engine
,如果是细节性问题则查询vector_query_engine
; -
查询得到到问题片段后,让给 deepseek
总结,得到答案。
具体实现
首先,加载文档。这里以openai发布的o1-preview-system-card-20240917.pdf为例:
from llama_index.core import SimpleDirectoryReader
document = SimpleDirectoryReader(input_files="./data/o1-preview-system-card-20240917.pdf").load_data()
将文档切片,并生成nodes
from llama_index.core.node_parser import SentenceSpitter
# 使用 SentenceSplitter 分割文档为节点
splitter = SentenceSplitter(chunk_size=1024)
nodes = splitter.get_nodes_from_documents(documents)
设置deepseek
和embedding
由于deepseek
支持openai
大模型的调用方式,可以在llama_index
中使用OpenAILike
类来对接,具体方法见代码:
from llama_index.llms.openai_like import OpenAILike
from llama_index.embeddings.huggingface import HuggingFaceEmbedding
Settings.embed_model = HuggingFaceEmbedding(
model_name="BAAI/bge-large-zh"
) # 使用 Hugging Face 的嵌入模型
Settings.llm = OpenAILike(
model="deepseek-chat",
api_base="https://api.deepseek.com",
api_key="****",
is_chat_model=True
)
创建索引和查询引擎
-
SummaryIndex
的原理是将所有Nodes以列表的形式排列,在查询时,会将所有节点送给llm; -
而 VectorStoreIndex
,则是按照向量相似度来检索,返回最top_k个片段。
# 创建 SummaryIndex 和 VectorStoreIndex
summary_index = SummaryIndex(nodes, show_progress=True)
vector_index = VectorStoreIndex(nodes)
# 创建查询引擎
summary_query_engine = summary_index.as_query_engine(response_mode="simple_summarize")
vector_query_engine = vector_index.as_query_engine(similarity_top_k=2)
# 创建 QueryEngineTool
summary_tool = QueryEngineTool.from_defaults(
query_engine=summary_query_engine,
description="可用于对文章做概括性总结",
)
vector_tool = QueryEngineTool.from_defaults(
query_engine=vector_query_engine,
description="可用于文章中具体信息的检索",
)
最关键的一步,创建路由查询引擎
query_engine = RouterQueryEngine(
selector=LLMSingleSelector.from_defaults(),
query_engine_tools=[summary_tool, vector_tool],
verbose=True,
)
结果验证
response = query_engine.query("文章主要讲了什么内容")

response = query_engine.query("文章主要讲了什么内容")

总结
本文主要在 路由查询引擎 和 检索库 两个方面,利用llama_index
和deepseek
实现了多知识源的实现方案。
通过结果也可以看到, VectorStoreIndex
可以较好处理细节问题,SummaryIndex
可以较好处理概括性问题,后续我们还可以丰富RouterQueryEngine
的配置,来丰富RAG系统的功能。