Ollama + OpenWebUI 本地可视化部署体验 DeepSeek-R1

840 阅读1分钟

一、安装 Ollama

首先下载一个工具以本地运行大语言模型,可访问 Ollama 官网,根据目标系统下载安装

image.png

二、下载大语言模型

Ollama 支持众多流行大语言模型(如 DeepSeek-R1),在上一步完成 Ollama 安装后打开 Shell,输入以下命令拉取大模型

> ollama pull deepseek-r1:7b

DeepSeek-R1 发布了多个不同参数版本,参数越多对设备参数要求越高,这里使用 7b 版本体验。更多模型可访问 ollama.com/search 进行搜索

三、运行大语言模型

在 Shell 中输入以下命令运行大模型

> ollama run deepseek-r1:7b

输入相关内容进行体验 image.png

四、可视化

在上一步可以看到模型输出的内容有相关排版格式符,但控制台输出无法应用。Ollama 支持启动大模型并对外提供接口服务,再配合 GUI 项目即可实现可视化部署。

  1. 在前面运行大语言模型后 Ollama 会启动接口服务,若未运行过可执行以下命令启动

    > ollama serve
    
  2. 安装并运行 open-webui 项目,项目 Readme 中有多种安装启动方式。前面已经本地安装了 Ollama ,因此本篇使用 Docker 运行项目即可,在 Shell 中输入以下命令

    > docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
    
  3. 等待 Docker 容器启动完成运行后,浏览器访问 http://127.0.0.1:3000 体验 image.png