部署前准备
- 一台8C 16G + 50G磁盘配置的Linux服务器
- 操作系统使用Centos 7.9
- 服务器的网络需要可联网
开始部署
第一步 安装 Ollama
首先你需要安装一个Ollama,这个软件相当于运行DeepSeek模型的底层,没有这个底层就没办法跑DeepSeek AI模型。
在浏览器访问:ollama.com/download/li… 复制红框中的下载命令
在Centos服务器中执行命令:
curl -fsSL https://ollama.com/install.sh | sh
下载过程可能较慢,这里需要等待一段时间。。
第二步 安装 DeepSeek-R1 模型
安装完成之后需要部署模型才能运行,因此咱们需要选择一个合适的模型。
版本:1.5b,适用于一般文字编辑使用(需要1.1GB空余空间)ollama run deepseek-r1:1.5b
版本:7b,DeepSeek的第一代推理模型,性能与OpenAl-01相当,包括从基于Llama和Qwen的DeepSeek-R1中提取的六个密集模型(需要4.7GB空余空间)ollama run deepseek-r1:7b
版本:8b,(需要4.9GB空余空间)ollama run deepseek-r1:8b
版本:14b,(需要9GB空余空间)ollama run deepseek-r1:14b
版本:32b,(需要20GB空余空间)ollama run deepseek-r1:32b
版本:70b,(需要43GB空余空间)ollama run deepseek-r1:70b
版本:671b,(需要404GB空余空间)ollama run deepseek-r1:671b
在浏览器访问:ollama.com/library/dee… 选择合适的模型,复制红框中的下载命令
登录到Centos 服务器上执行:
ollama run deepseek-r1:8b
模型拉取的过程可能较慢,这里需要等待一段时间。。
这里可以在cli命令行模式下进行简单的聊天。
第三步 安装open-webui 界面化访问
首先需要先安装docker环境
yum install docker -y && systemctl restart docker && systemctl enable docker
docker环境安装完成之后,直接启动open-webui容器:
国内环境 可直接执行:
docker run -d --net=host -e OLLAMA_BASE_URL=http://127.0.0.1:11434 \
-v open-webui:/app/backend/data --name open-webui --restart always \
--security-opt seccomp:unconfined \
swr.cn-north-4.myhuaweicloud.com/ddn-k8s/ghcr.io/open-webui/open-webui:ollama
#说明 因为我的服务器没有GPU,所以仅使用了CPU资源启动
浏览器中打开 http://123.249.35.86:8080/ 进行访问:
首先需要先注册一个管理员用户
然后选择模型开始聊天。
聊天过程中,可以看到服务器后台的CPU资源飙升。
到这里 DeepSeek 就部署完成了。