3步部署DeepSeek,小白也能跟着做!

4,082 阅读2分钟

部署前准备

  • 一台8C 16G + 50G磁盘配置的Linux服务器
  • 操作系统使用Centos 7.9
  • 服务器的网络需要可联网

图片1111.png

开始部署

第一步 安装 Ollama

首先你需要安装一个Ollama,这个软件相当于运行DeepSeek模型的底层,没有这个底层就没办法跑DeepSeek AI模型。

在浏览器访问:ollama.com/download/li… 复制红框中的下载命令

image.png

在Centos服务器中执行命令:

curl -fsSL https://ollama.com/install.sh | sh

image.png

下载过程可能较慢,这里需要等待一段时间。。

第二步 安装 DeepSeek-R1 模型

安装完成之后需要部署模型才能运行,因此咱们需要选择一个合适的模型。

版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)ollama run deepseek-r1:1.5b
版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要4.7GB空余空间)ollama run deepseek-r1:7b
版本:8b,(需要4.9GB空余空间)ollama run deepseek-r1:8b
版本:14b,(需要9GB空余空间)ollama run deepseek-r1:14b
版本:32b,(需要20GB空余空间)ollama run deepseek-r1:32b
版本:70b,(需要43GB空余空间)ollama run deepseek-r1:70b
版本:671b,(需要404GB空余空间)ollama run deepseek-r1:671b

在浏览器访问:ollama.com/library/dee… 选择合适的模型,复制红框中的下载命令

image.png

登录到Centos 服务器上执行: ollama run deepseek-r1:8b

image.png 模型拉取的过程可能较慢,这里需要等待一段时间。。 这里可以在cli命令行模式下进行简单的聊天。

image.png

第三步 安装open-webui 界面化访问

首先需要先安装docker环境

yum install docker -y && systemctl restart docker && systemctl enable docker 

docker环境安装完成之后,直接启动open-webui容器:

国内环境 可直接执行:
docker run -d  --net=host  -e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
-v open-webui:/app/backend/data --name open-webui --restart always   \
--security-opt seccomp:unconfined  \
swr.cn-north-4.myhuaweicloud.com/ddn-k8s/ghcr.io/open-webui/open-webui:ollama 

#说明 因为我的服务器没有GPU,所以仅使用了CPU资源启动 

image.png

浏览器中打开 http://123.249.35.86:8080/ 进行访问:

首先需要先注册一个管理员用户

image.png

然后选择模型开始聊天。 image.png

image.png

聊天过程中,可以看到服务器后台的CPU资源飙升。 image.png

到这里 DeepSeek 就部署完成了。