LangChain系统安装和快速入门| 豆包MarsCode AI刷题

70 阅读3分钟

什么是大语言模型?

大语言模型(LLM)是一种通过深度学习技术训练的人工智能模型,能够理解和生成自然语言。它们的强大之处在于参数的庞大和数据的广泛,通过预测下一个词的方式,学习语言中的复杂模式和结构。尽管大语言模型可以生成语法和语义都较为精准的文本,但它们并不“理解”语言,而是基于概率进行预测。

例如,如果我们给模型一个句子:“今天的天气真”,模型可能预测出“好”作为下一个词。这种能力让它在对话生成、文本总结和情感分析等任务中广泛应用。

LangChain 框架概述

LangChain 是一个开源的 Python 库,专为大语言模型的应用开发而设计。它提供了一个高效的封装,帮助开发者更加方便地集成和使用多种大语言模型(如 OpenAI、Hugging Face 等),从而加速应用开发。

LangChain 的核心优势在于:

  • 模块化:可以灵活组合不同的功能链条,构建自己的应用。
  • 预构建链:内置多种可用的组件,适合不同开发者的需求。
  • 多语言支持:除了 Python,还支持 JavaScript 开发。

安装 LangChain

安装 LangChain 非常简单:

pip install langchain

如果需要安装常用的模型依赖(如 OpenAI 和 Hugging Face),可以执行:

pip install langchain[llms]

安装后,记得更新到最新版:

pip install --upgrade langchain

使用 LangChain 调用 OpenAI API

LangChain 封装了 OpenAI API,让调用更加简便。以下是调用 OpenAI 的 Text 和 Chat 模型的示例:

1. 调用 OpenAI Text 模型

首先,安装 openai 库并设置 API 密钥:

pip install openai

然后,使用 LangChain 的 OpenAI 类来调用模型:

import os
from langchain.llms import OpenAI

# 设置 API 密钥
os.environ["OPENAI_API_KEY"] = "your-api-key"

# 创建模型对象
llm = OpenAI(model="gpt-3.5-turbo-instruct", temperature=0.8, max_tokens=60)

# 调用模型
response = llm.predict("请给我的花店起个名")
print(response)

输出可能是:

花之缘、芳华花店、花语心意

2. 调用 OpenAI Chat 模型

使用 ChatOpenAI 类来处理对话任务:

from langchain.chat_models import ChatOpenAI
from langchain.schema import HumanMessage, SystemMessage

# 创建模型对象
chat = ChatOpenAI(model="gpt-4", temperature=0.8, max_tokens=60)

# 设置消息
messages = [
    SystemMessage(content="你是一个很棒的智能助手"),
    HumanMessage(content="请给我的花店起个名")
]

# 调用模型
response = chat(messages)
print(response)

输出可能是:

"当然可以,叫做'花语秘境'怎么样?"

Chat模型 vs Text模型

  • Text 模型:适用于生成简短文本或处理单轮任务。通过设置 temperaturemax_tokens 参数,您可以控制输出的随机性和长度。
  • Chat 模型:适用于多轮对话。通过 messages 列表传递不同角色(如 systemuserassistant)的消息,让模型生成更自然的对话内容。

总结

LangChain 是一个强大的工具,简化了与大语言模型(如 OpenAI)的集成过程。通过 LangChain,开发者可以轻松构建基于语言模型的应用,如聊天机器人、文本生成、信息提取等。

无论是使用 Text 模型进行单轮任务,还是使用 Chat 模型进行对话交互,LangChain 都能提供灵活且易于使用的接口。对于初学者和有经验的开发者来说,LangChain 都是一个值得深入学习的框架。