【技术专题】基于LangChain的RAG与Agent智能体 - RunnableLambda实现复杂多模型链路调用

0 阅读1分钟

大家好,我是锋哥。最近连载更新《基于LangChain的RAG与Agent智能体》技术专题。

QQ截图20260324143646.jpg 本课程主要介绍和讲解RAG,LangChain简介,接入通义千万大模型,Ollama简介以及安装和使用,OpenAI库介绍和使用,以及最重要的基于LangChain实现RAG与Agent智能体开发技术。同时也配套视频教程 《2027版 基于LangChain的RAG与Agent智能体开发视频教程》

前面示例都是比较简单的链路调用,但是在实际开发中,我们经常需要做复杂的多模型链路调用,也就是调用模型生成的内容之后,继续做下处理,继续调用模型。这里面涉及到格式问题了。传入下一个模型的比如字典格式。

我们可以通过RunnableLambda类来实现格式的转换。

我们来看一个示例:

from langchain_community.llms.tongyi import Tongyi
from langchain_core.prompts import PromptTemplate
from langchain_core.runnables import RunnableLambda
​
# 定义一个模板,包含两个变量:product 和 price
template = "我的所在的行业是:{sector},哪个细分领域职位最有前途,直接告诉我职位名字即可"# 创建 PromptTemplate 对象
prompt = PromptTemplate(
    input_variables=["sector"],  # 输入变量
    template=template  # 模板
)
​
# 再定义一个模板,包含一个变量:name
template2 = "请用简单的话描述下:{name}这个职位。最后再回答下:{extra}"# 创建 PromptTemplate 对象
prompt2 = PromptTemplate(
    input_variables=["name", "extra"],  # 输入变量
    template=template2  # 模板
)
​
model = Tongyi(model="qwen-plus")  # 创建模型# myfunc = RunnableLambda(lambda x: {"name": x})# 创建链式调用
chain = prompt | model | (lambda x: {"name": x, "extra": "这个职位在北京5年经验年薪平均多少万?"}) | prompt2 | model
​
# 调用模型
result = chain.stream(input={"sector": "IT"})
for chunk in result:
    print(chunk, end="", flush=True)

运行输出:

image.png