本文记录在Windows系统上安装并运行ollama,并集成open-webui的详细过程。
- ollama
下载地址:ollama.com/download
选择合适的操作系统进行下载,以windows为例,下载后完成安装。
设置models保存位置(位置根据需要调整):
设置完环境变量后,重启系统或重启ollama生效。
- open-webui
代码下载到本地
创建Python-Interpreter,最好python版本为3.11,我用的miniconda管理的。直接conda create --name openwebUI python=3.11,之后在pycharm里选中openwebUI
pip install open-webui
open-webui serve --port 8895
可以使用自定义接口启动,启动完成后访问:http://localhost:8895/ ,首次登录需要注册管理员账号。
- 使用
- 使用互联网大模型API
在设置-外部连接里,管理API端口站点
- 使用本地部署的大模型
使用ollma拉取并运行模型
例如:ollama run deepseek-r1:1.5b, 运行成功后,会出现Send a message的提示。
此时刷新opn-webui,这个模型会显示出来。选择合适的模型,即可完成对话