大模型web服务部署—lobe-chat 部署
这是一个集成多种模型能力的对话 web 项目,部署简单,设计优雅。就相当于部署自己的一个私人的chatgpt服务,那么重点是我为什么不直接用chatgpt而去选择部署使用lobechat呢,文档给出了下面的几个优点:
- GPT 视觉认知
- TTS & STT 语音会话
- Text to Image 文生图
- Function Calling 插件系统
- 助手市场
- PWA 渐进式 Web 应用
- 移动设备适配
- 自定义主题
对我而言,有两个地方比较吸引我,第一个是它的插件系统,有着非常丰富的插件市场,对我来说,我装了一些学术与搜索相关的插件,日常使用还是挺方便的
当然吸引我的第二个点就是有超级多的预设助手,有各个方面的,能够大大减少我们想提示词等相关的难度
lobechat 部署
官方提供了 docker 部署方案,可直接部署:
docker run -itd --name=lobechat -p 3210:3210 -e OLLAMA_PROXY_URL=http://host.docker.internal:11434 lobehub/lobe-chat
如果你像我一样,ollama 部署在本地,那么可以直接使用 http://host.docker.internal:11434/v1 来作为接口地址。但是你的docker版本如果比较老,你可能需要加上下面的参数--add-host=host.docker.internal:host-gateway
docker run -itd --name=lobechat -p 3210:3210 --add-host=host.docker.internal:host-gateway -e OLLAMA_PROXY_URL=http://host.docker.internal:11434/v1 lobehub/lobe-chat
启动之后我们就可以打开http://localhost:3210/chat 进行查看了
我们看到这个界面比起我们之前介绍的open-webui 就丰富多了
lobechat升级
lobechat项目还是比较火的,更新也比较多,所以我们也可能需要重新拉去最新的镜像去部署服务
停止并删除当前正在运行的 LobeChat 容器
docker stop lobechat
docker rm lobechat
拉取 LobeChat 的最新 Docker 镜像:
docker pull lobehub/lobe-chat
lobechat 其他使用方式
这个项目支持桌面端,可直接下载 Mac 版本,然后在本地进行交互。
下载安装之后,点击设置,进行如下几项设置,此处正说明当下 ollama 已兼容 OpenAI 的接口标准。
lobe-chat 配置ollama
由于 Ollama 的默认参数配置,启动时设置了仅本地访问,所以跨域访问以及端口监听需要进行额外的环境变量设置 OLLAMA_ORIGINS。使用 launchctl 设置环境变量
launchctl setenv OLLAMA_ORIGINS "*"
完成设置后,需要重启 Ollama 应用程序。
这个时候我们回到LobeChat页面,发现这个地方并没有我们本地的模型
因为我现在本地的模型是
(base) ➜ ~ ollama list
NAME ID SIZE MODIFIED
llama3.1:latest 91ab477bec9d 4.7 GB 3 weeks ago
llama3:latest 71a106a91016 4.7 GB 4 months ago
llama2:latest 78e26419b446 3.8 GB 5 months ago
这里的一些模型选项相当于是可供选的参数,这里我随便选一个,但是报错
所以这里需要我们去配置一下
这个时候我们就可以看到这两个模型了
但是我们使用的时候依然报错
这里我们继续回到刚才ollama 配置的地方,将接口地址改为http://host.docker.internal:11434/v1
但是你这个时候点击这个检查的时候可能会报错,检查不通过,直接忽略这个问题,这下我们回到聊天窗口发现lobe-chat对我们的输入跑去画图了,这是因为默认开启了画图插件DALL.E3,我们关了即可
在对话设置窗口即可关闭
这下上面的插件不见了,并且回答也正确了
总结
lobe-chat 的强大之处在于提供了视觉,语音对话,图像识别的功能,而且有手机端、网页端、电脑端使用起来很方便,生态完善