最近Deepseek模型过于火爆,很多人经常遇到服务器繁忙问题,读完本篇文章可以在自己电脑上部署DeepSeek大模型。
本地部署适合想研究体验大模型的选手,想要体验满血效果可以去第三方平台,各大ai平台也上线了满血deepseek。目前体验下来硅基流动的效果最好,延迟最低。完成 SiliconCloud 账号注册,立刻获得 2000万 Tokens,有兴趣的可以点击链接体验一下。 cloud.siliconflow.cn/i/ZGIUQ6Rt
好了,话不多说,让我们进入今天的ai部署教程。
安装步骤
一.安装Ollama工具
Ollama是为用户在自己电脑上运行ai模型的开源工具
1.1 下载客户端
点击官网:ollama.com/
打开后点击首页的 Download 按钮
页面跳转到下载页,选择需要的客户端版本,这里我选择windows
下载完是一个.exe程序
点击安装
1.2 下载Deepseek模型
安装完毕后回到Ollama网页,这里我贴出Deepseek模型下载地址:ollama.com/library/dee…
打开网页后可以看到模型选择页面,我的主机配置是 CPU:5600X GPU:AMD 5600 8G显存 内存:32G,这里我选择的8b版本,不知道选什么的可以先尝试 deepseek-r1:1.5b
打开终端输入命令点击回车:
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
等待模型下载完成
这时候已经可以使用Deepseek本地模型了,不过得打开终端,还是不太方便。我们可以借助工具:ChatBox,集成了本地模型的可视化界面。
二.安装GUI界面-ChatBox
下载地址:chatboxai.app/zh 下载完后点击安装
第一次打开选择使用自己的API Key或本地模型
这里我们选择Ollama API
API 主机:
http://127.0.0.1:11434
模型选择刚刚下载的Deepseek本地版本,点击保存即可。
部署成功后就可以使用自己的本地Deepseek模型啦!