大模型web服务部署—lobe-chat 部署

679 阅读3分钟

大模型web服务部署—lobe-chat 部署

这是一个集成多种模型能力的对话 web 项目,部署简单,设计优雅。就相当于部署自己的一个私人的chatgpt服务,那么重点是我为什么不直接用chatgpt而去选择部署使用lobechat呢,文档给出了下面的几个优点:

  1. GPT 视觉认知
  2. TTS & STT 语音会话
  3. Text to Image 文生图
  4. Function Calling 插件系统
  5. 助手市场
  6. PWA 渐进式 Web 应用
  7. 移动设备适配
  8. 自定义主题

对我而言,有两个地方比较吸引我,第一个是它的插件系统,有着非常丰富的插件市场,对我来说,我装了一些学术与搜索相关的插件,日常使用还是挺方便的

image-20240831144123077

当然吸引我的第二个点就是有超级多的预设助手,有各个方面的,能够大大减少我们想提示词等相关的难度

image-20240831143817118

image-20240831143831329

lobechat 部署

官方提供了 docker 部署方案,可直接部署:

docker run -itd  --name=lobechat -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434 lobehub/lobe-chat

如果你像我一样,ollama 部署在本地,那么可以直接使用 http://host.docker.internal:11434/v1 来作为接口地址。但是你的docker版本如果比较老,你可能需要加上下面的参数--add-host=host.docker.internal:host-gateway

docker run -itd  --name=lobechat -p 3210:3210 --add-host=host.docker.internal:host-gateway  -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat

启动之后我们就可以打开http://localhost:3210/chat 进行查看了

image-20240831142025416

我们看到这个界面比起我们之前介绍的open-webui 就丰富多了

lobechat升级

lobechat项目还是比较火的,更新也比较多,所以我们也可能需要重新拉去最新的镜像去部署服务

停止并删除当前正在运行的 LobeChat 容器

docker stop lobechat
docker rm lobechat

拉取 LobeChat 的最新 Docker 镜像:

docker pull lobehub/lobe-chat

lobechat 其他使用方式

这个项目支持桌面端,可直接下载 Mac 版本,然后在本地进行交互。

下载安装之后,点击设置,进行如下几项设置,此处正说明当下 ollama 已兼容 OpenAI 的接口标准。

image-20240318195939968

lobe-chat 配置ollama

由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS。使用 launchctl 设置环境变量

launchctl setenv OLLAMA_ORIGINS "*"

完成设置后,需要重启 Ollama 应用程序。

这个时候我们回到LobeChat页面,发现这个地方并没有我们本地的模型

image-20240831144735771

因为我现在本地的模型是

(base) ➜  ~ ollama list
NAME            ID            SIZE    MODIFIED
llama3.1:latest 91ab477bec9d  4.7 GB  3 weeks ago
llama3:latest   71a106a91016  4.7 GB  4 months ago
llama2:latest   78e26419b446  3.8 GB  5 months ago

这里的一些模型选项相当于是可供选的参数,这里我随便选一个,但是报错

image-20240831144929146

所以这里需要我们去配置一下

image-20240831145058684

这个时候我们就可以看到这两个模型了

image-20240831145129719

但是我们使用的时候依然报错

image-20240831145203906

这里我们继续回到刚才ollama 配置的地方,将接口地址改为http://host.docker.internal:11434/v1

image-20240901084846892

但是你这个时候点击这个检查的时候可能会报错,检查不通过,直接忽略这个问题,这下我们回到聊天窗口发现lobe-chat对我们的输入跑去画图了,这是因为默认开启了画图插件DALL.E3,我们关了即可

image-20240901085322963

在对话设置窗口即可关闭

image-20240901085237215

这下上面的插件不见了,并且回答也正确了

image-20240901085354415

总结

lobe-chat 的强大之处在于提供了视觉,语音对话,图像识别的功能,而且有手机端、网页端、电脑端使用起来很方便,生态完善