LangChain :打造一个自己的ChatGPT

873 阅读2分钟

浅谈

在全球程序员的圈子里,当下最火热的无疑是AI技术,其中OpenAI推出的ChatGPT更是被大家广泛使用。那我们能不能自己动手做一个chat聊天机器人呢?可以,在LangChainAI框架的帮助下简直是易如反掌...本文我将带大家来做一个聊天机器人...

LangChain

  1. 什么是LangChain?

LangChain是一个开源的框架,它可以让AI开发人员把像GPT-4这样的大型语言模型(LLM)和外部数据结合起来。它提供了PythonJavaScript(TypeScript) 的包。

  1. 为什么要使用LangChain?
  • 首先它是一个开源框架,所以使用它会让我们的开发变得简单,变得标准
  • 其次,GPT模型的训练会有局限性

我问chatGPT(3.5)什么是LangChain?他是这样回答的:

image.png

当我询问我的chat聊天机器人时,他是这样回答的:

image.png

所以chatGPT(3.5)的通用知识停留在上一次更新知识库的时间,而使用LangChain框架开发的聊天机器人在回答你的问题时可以访问到最新数据

打造聊天机器人

  1. 准备

我们需要使用到colab,使用谷歌账号登录即可。(tips:需要魔法登录)

点击右上角 NEW NOTEBOOK 来到以下界面

image.png

  1. 开始
  • 安装LangChain和OpenAI,点击播放键运行

    • !pip install langchain==0.0.316
    • !pip install openai==0.28.1

image.png

在这里由于我们的openai版本已经超前,在这里并不适用,所以要指定旧版本

  • 导入

    • from langchain.chat_models import ChatOpenAI
    • from langchain.schema import HumanMessage
    • import os
  • 配置 掘友们需要在这里写上自己的API_KEY哦

    • os.environ['OPENAI_API_KEY']='*****************************************'
    • chat = ChatOpenAI(temperature = 0,model_name="gpt-3.5-turbo")
  • 传入问题并输出结果

    • response = chat([HumanMessage(content="Hello LangChain!")])
    • print(response)
# LangChain怎么优化OpenAI 开发的
# 聊天模型
from langchain.chat_models import ChatOpenAI
# 分为三种角色 System、assistant、user(human)
# HumanMessage?问题传给他就ok
from langchain.schema import HumanMessage
import os#文件系统
# 设置环境变量,LangChain自动来拿key
os.environ['OPENAI_API_KEY']='****************************************'
chat = ChatOpenAI(temperature = 0,model_name="gpt-3.5-turbo")
# openai接受的就是一个数组
response = chat([HumanMessage(content="Hello LangChain!")])
print(response)

先跟它打个招呼!Hello LangChain!

屏幕截图 2023-12-14 230530.png

大家看!他回我们了!我们接着问:

image.png

是不是感觉有点东西,嘿嘿嘿~~~~~~

结尾

我们将LangChain打造的聊天机器人结合到APP应用中去,就可以为你的App请来一位‘百事通’