ollama集成open-webui (windows版)

110 阅读1分钟

本文记录在Windows系统上安装并运行ollama,并集成open-webui的详细过程。

  1. ollama

下载地址ollama.com/download

选择合适的操作系统进行下载,以windows为例,下载后完成安装。

设置models保存位置(位置根据需要调整)

image.png

设置完环境变量后,重启系统或重启ollama生效。

  1. open-webui

源码地址github.com/open-webui/…

代码下载到本地

创建Python-Interpreter,最好python版本为3.11,我用的miniconda管理的。直接conda create --name openwebUI python=3.11,之后在pycharm里选中openwebUI

pip install open-webui

open-webui serve --port 8895

可以使用自定义接口启动,启动完成后访问:http://localhost:8895/ ,首次登录需要注册管理员账号。

  1. 使用
  • 使用互联网大模型API

在设置-外部连接里,管理API端口站点 image.png

  • 使用本地部署的大模型

使用ollma拉取并运行模型

例如:ollama run deepseek-r1:1.5b, 运行成功后,会出现Send a message的提示。

image.png

此时刷新opn-webui,这个模型会显示出来。选择合适的模型,即可完成对话

image.png