Langchain基础入门02——models

1,480 阅读3分钟

前言

Langchain为开发者提供了两类封装的语言模型:大语言模型(LLM)和聊天模型(Chat Models)。这两类模型的封装使得开发者能够更便捷地利用OpenAI API进行文本建模和生成。本篇文章就带大家去了解一下这两种模型的区别

LLM(大语言模型)

LLM是一种基于统计的机器学习模型,专注于对文本数据进行建模和生成。具体而言,Langchain中的LLM指的是文本补全模型,其通过学习语言模式、语法规则和语义关系,生成符合语言规则的连贯文本。

输入输出
一条文本内容一条文本内容

聊天模型(Chat Models)

聊天模型是语言模型的一种变体,它不仅使用语言模型,还提供了基于“聊天消息”的接口。在Langchain中,gpt系列模型属于聊天模型,而davinci、curie、babbage、ada等模型属于文本补全模型。

输入输出
一组聊天消息一条聊天消息

Langchain与OpenAI模型

Langchain通过封装不同的模型,为开发者提供了统一的接口。无论是文本补全模型还是聊天模型,Langchain将其抽象为相同的接口BaseLanguageModel。开发者可通过predictpredict_messages函数轻松调用不同模型,当使用LLM时推荐使用predict函数,当使用聊天模型时推荐使用predict_messages函数。接下来通过一些代码示例给大家展示一下两者的不同。

与LLM的交互

与LLM的交互,我们需要使用 langchain.llms 模块中的 OpenAI 类

from langchain.llms import OpenAI

import os
os.environ['OPENAI_API_KEY'] = '您的有效OpenAI API Key'

llm = OpenAI(model_name="gpt-3.5-turbo")
response = llm.predict("What is AI?")
print(response)

image.png

与聊天模型的交互

与聊天模型的交互,我们需要使用 langchain.chat_models 模块中的 ChatOpenAI 类。

from langchain.chat_models import ChatOpenAI
from langchain.schema import AIMessage, HumanMessage, SystemMessage

import os
os.environ['OPENAI_API_KEY'] = '您的有效OpenAI API Key'

chat = ChatOpenAI(temperature=0)
response = chat.predict_messages([ 
  HumanMessage(content="What is AI?")
])
print(response)

image.png 可以看到,聊天模型返回的是一个AIMessage 类型的对象。这里就要给大家科普一下Langchain里的三个消息类

三个消息类

Langchain框架提供了三个消息类,分别是 AIMessageHumanMessage 和 SystemMessage。它们对应了OpenAI聊天模型API支持的不同角色 assistantuser 和 system

Langchain类OpenAI角色作用
AIMessageassistant模型回答的消息
HumanMessageuser用户向模型的请求或提问
SystemMessagesystem系统指令,用于指定模型的行为

我们尝试用SystemMessage来指定一下模型的行为,指定模型对AI一无所知,在回答AI相关问题时,回答“I don't know”。

response = chat.predict_messages([
  SystemMessage(content="You are a chatbot that knows nothing about AI. When you are asked about AI, you must say 'I don\'t know'"),
  HumanMessage(content="What is deep learning?")
])
print(response)

image.png

结语

Langchain的模型封装为开发者提供了便捷、高效的方式,利用OpenAI API进行文本生成和语言建模。通过本文的介绍,希望读者能更深入地了解Langchain的模型体系,以及如何灵活运用这些模型进行自然语言处理的开发。