各种chain的介绍
- 串联式编排调用链:SequentialChain
- 流水线 胶水代码逻辑处理
- 具备编排逻辑 串行 one by one的调用
- 上一个chain的输出 作为 下一个chain的输入
- 超长文本的转换 Transform Chain
- pdf文件处理
- 提供了套壳的能力 将python处理字符串的能力 套用进来 完成数据的格式化处理
- 实现条件判断的路由链:RouterChain
- 复杂逻辑 条件判断
- 组合routerchain 目标链 通过条件判断 选择对应的目标链进行调用
Transform Chain: 实现快捷处理超长文本
设计理念 是提供一个框架(壳子) 将处理文本的函数 套进来使用
代码示例
from langchain.chains import TransformChain, LLMChain
from langchain_openai import OpenAI
from langchain.prompts import PromptTemplate
import os
api_key = 'sk-xxx'
os.environ["OPENAI_API_KEY"] = api_key
serp_api = 'xxx'
os.environ["SERPAPI_API_KEY"] = serp_api
with open("the_old_man_and_the_sea.txt") as f:
novel_text = f.read()
# 定义一个转换函数,输入是一个字典,输出也是一个字典。
def transform_func(inputs: dict) -> dict:
# 从输入字典中获取"text"键对应的文本。
text = inputs["raw_text"]
# 使用split方法将文本按照"\n\n"分隔为多个段落,并只取前三个,然后再使用"\n\n"将其连接起来。
shortened_text = "\n\n".join(text.split("\n\n")[:3])
# 返回裁剪后的文本,用"output_text"作为键。
return {"output_text": shortened_text}
def main():
# 使用上述转换函数创建一个TransformChain对象。
# 定义输入变量为["text"],输出变量为["output_text"],并指定转换函数为transform_func。
# 提供一个壳子 将函数处理能力 逃进来
transform_chain = TransformChain(
input_variables=["raw_text"], output_variables=["output_text"], transform=transform_func
)
# 通过chain转换后的文本数据 包括两个key raw_text输入结果 output_text输出结果
transformed_novel = transform_chain(novel_text)
print(transformed_novel)
template = """总结下面文本:
{output_text}
总结:"""
prompt = PromptTemplate(input_variables=["output_text"], template=template)
llm_chain = LLMChain(llm=OpenAI(), prompt=prompt, verbose=True)
few_output_text = transformed_novel['output_text'][:1000]
result = llm_chain(few_output_text)
print(result)
if __name__ == "__main__":
main()
输出结果
总结:
核心就是提供 串接 套壳的能力 将处理文本函数套壳进来 然后将原始数据局进行处理
Router Chain: 实现条件判断的大模型调用
构建可定制的链路系统,用户可以提供不同的输入提示,并根据这些提示获取适当的响应。
主要逻辑:从prompt_infos创建多个LLMChain对象,并将它们保存在一个字典中,然后创建一个默认的ConversationChain,最后创建一个带有路由功能的MultiPromptChain。
MultiPromptChain 是 router chain和目标链destnation chain构成
from langchain.chains.router import MultiPromptChain
from langchain_openai import OpenAI
from langchain.chains import ConversationChain
from langchain.chains.llm import LLMChain
from langchain.prompts import PromptTemplate
import os
api_key = 'sk-xxx'
os.environ["OPENAI_API_KEY"] = api_key
serp_api = 'xxx'
os.environ["SERPAPI_API_KEY"] = serp_api
def get_prompt_infos():
"""
提示语
:return:
"""
physics_template = """你是一位非常聪明的物理教授。
你擅长以简洁易懂的方式回答关于物理的问题。
当你不知道某个问题的答案时,你会坦诚承认。
这是一个问题:
{input}"""
math_template = """你是一位很棒的数学家。你擅长回答数学问题。
之所以如此出色,是因为你能够将难题分解成各个组成部分,
先回答这些组成部分,然后再将它们整合起来回答更广泛的问题。
这是一个问题:
{input}"""
prompt_infos = [
{
"name": "物理",
"description": "适用于回答物理问题",
"prompt_template": physics_template,
},
{
"name": "数学",
"description": "适用于回答数学问题",
"prompt_template": math_template,
},
]
return prompt_infos
llm = OpenAI(model_name="gpt-3.5-turbo-instruct")
prompt_infos = get_prompt_infos()
def get_destination_chains():
"""
动态构建的目标链
存放根据prompt_infos生成的LLMChain。
:return:
"""
# 创建一个空的目标链字典,用于存放根据prompt_infos生成的LLMChain。
destination_chains = {}
# 遍历prompt_infos列表,为每个信息创建一个LLMChain。
for p_info in prompt_infos:
name = p_info["name"] # 提取名称
prompt_template = p_info["prompt_template"] # 提取模板
# 创建PromptTemplate对象
prompt = PromptTemplate(template=prompt_template, input_variables=["input"])
# 使用上述模板和llm对象创建LLMChain对象
chain = LLMChain(llm=llm, prompt=prompt)
# 将新创建的chain对象添加到destination_chains字典中
destination_chains[name] = chain
return destination_chains
from langchain.chains.router.llm_router import LLMRouterChain, RouterOutputParser
from langchain.chains.router.multi_prompt_prompt import MULTI_PROMPT_ROUTER_TEMPLATE
# 从prompt_infos中提取目标信息并将其转化为字符串列表 ['物理: 适用于回答物理问题', '数学: 适用于回答数学问题']
destinations = [f"{p['name']}: {p['description']}" for p in prompt_infos]
# 使用join方法将列表转化为字符串,每个元素之间用换行符分隔
destinations_str = "\n".join(destinations)
# 根据MULTI_PROMPT_ROUTER_TEMPLATE格式化字符串和destinations_str创建路由模板
router_template = MULTI_PROMPT_ROUTER_TEMPLATE.format(destinations=destinations_str)
# 创建路由的PromptTemplate
router_prompt = PromptTemplate(
template=router_template,
input_variables=["input"],
output_parser=RouterOutputParser(),
)
# 使用上述路由模板和llm对象创建LLMRouterChain对象
router_chain = LLMRouterChain.from_llm(llm, router_prompt)
# 创建一个默认的ConversationChain
default_chain = ConversationChain(llm=llm, output_key="text")
# 目标链
destination_chains = get_destination_chains()
# 创建MultiPromptChain对象,其中包含了路由链,目标链和默认链。
chain = MultiPromptChain(
router_chain=router_chain,
destination_chains=destination_chains,
default_chain=default_chain,
verbose=True,
)
print(chain.run("万有引力定律是什么?"))
输出结果
MULTI_PROMPT_ROUTER_TEMPLATE的具体实现
组装完成的提示模版
示例 整合SequentialChain、RouterChain、Transform Chain
这段代码构建了一个可定制的链路系统,用户可以提供不同的输入提示,并根据这些提示获取适当的响应。
主要逻辑:从prompt_infos创建多个LLMChain对象,并将它们保存在一个字典中,然后创建一个默认的ConversationChain,最后创建一个带有路由功能的MultiPromptChain