个人电脑如何部署 DeepSeek R1

231 阅读4分钟

本文介绍了在个人电脑上利用 Ollama、Open WebUI 和 Docker 部署 DeepSeek R1 模型的全过程,包括从手动安装到 Docker 快速部署的每个步骤。无论是初学者还是有经验的开发者,都能根据此文轻松完成本地部署。

环境准备

以下是 DeepSeek R1 不同版本的硬件要求,可以根据电脑硬件情况进行选择:

模型大小CPU显卡内存磁盘
1.5B1.1GB四核或六核GTX 1650 / RTX 2060,支持纯CPU推理16GB50GB
7B4.7GB六核或八核RTX 3060 或更高,显存至少8GB32GB100GB
8B4.9GB六核或八核RTX 3060 或更高,显存至少8GB32GB100GB
14B9.0GB八核以上 (i9/Ryzen 9)RTX 3080 或更高,显存至少16GB64GB200GB
32B20GB八核以上高端显卡如 RTX 3090/A100,显存至少24GB128GB500GB
70B43GB十二核以上多张显卡组合,如2x A100 80GB/4x RTX 4090128GB1TB
671B404GB服务器级多节点分布式训练,如8x A100/H100512GB2TB

上述配置是基于推理场景下的推荐配置,如果涉及到模型训练,可能需要更高的硬件规格。因此只是简单体验一下的话部署 1.5B 或 7B 即可。

安装 Ollama

Ollama 是一个开源的 LLM 运行工具,专注于简化用户在本地部署和管理大语言模型(如 Llama、Mistral、DeepSeek 等)的流程。它通过命令行和 API 提供便捷的模型交互方式,适合开发者、研究人员和爱好者快速测试和运行模型。

下载地址:ollama.com/download

直接运行安装文件,安装完成后可以在命令行中运行 ollama 测试是否安装成功。

image.png

安装模型

然后按需安装模型,本人安装的是 7B 模型,命令行中运行如下命令:

# 运行指定模型,若本地不存在,会自动下载
ollama run deepseek-r1:7b

静静等待,7B 模型大小为 4.7GB,安装完成后如下所示:

image2.png

可以输入 /? 查看帮助信息,或者直接输入一个问题让 DeepSeek 解答。

image3.png

OK,看起来它已经能完成基础的问答工作了。

接口调用

通过 ollama run <xxx> 启动一个模型后,Ollama 默认会启动一个接口服务,默认 host 为:http://127.0.0.1:11434/。然后通过 Ollama 提供的接口文档,就可以进行接口调用。

接口文档:github.com/ollama/olla…

以下是一个基于 Python 的请求示例:

# 通过运行 python example.py 在控制台查看输出结果
import requests

url = 'http://127.0.0.1:11434/api/generate'

headers = {
    'Content-Type': 'application/json',
}

data = {
    "model": "deepseek-r1:7b",
    "prompt": '天空为什么是蓝色的?',
    "stream": False
}

response = requests.post(url, headers=headers, json=data)

print(response.json())

配置 UI 界面

通过在本地部署模型,我们已经可以在命令行里进行对话问答,那么怎么更友好地与大模型进行交互呢?下面使用 Open WebUI 来配置图形界面。

Open WebUI 是一个可扩展、功能丰富且用户友好的自托管 AI 平台,旨在完全离线运行。它支持各种 LLM 运行器(如 Ollama)和与 OpenAI 兼容的 API,并内置 RAG 推理引擎,使其成为强大的 AI 部署解决方案。

Open WebUI 地址:github.com/open-webui/…README 文件中提供了详细的安装说明,包括 pip 安装及 Docker 安装,简要命令如下:

# ------------------------- pip 安装 -----------------------------
# 安装 open-webui,注意官方 readme 中提到的 python 版本
pip install open-webui

# 手动启动 open-webui 服务,通过 http://localhost:8080/ 访问
open-webui serve

# ------------------------- docker 安装 -----------------------------
# 通过前面步骤已经在本机安装了 Ollama,因此执行如下命令即可
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

本人是使用 Docker 运行的 Open WebUI,启动后访问 http://localhost:3000/ ,登录后看到的 UI 界面如下(首次使用需要注册账号):

image4.png

此时就可以通过网页跟我们本地部署的 DeepSeek R1 进行交互。

使用 Docker 快速部署

如果电脑中已经安装了 Docker,并且又对 Docker 比较熟悉,也可以安装附带 Ollama 支持的 Open WebUI,一条命令就可以完成 UI 界面的搭建。

# 有独立显卡
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

# 无独立显卡
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama

然后访问 http://127.0.0.1:3000/ 进入页面,登录后到管理员设置里面进行模型下载。

image5.png

完成后开启一个新对话即可使用刚才下载的模型。当然,这里不局限于 DeepSeek,你还可以尝试更多的模型