Deepseek零成本本地部署教程!10分钟搞定ai私有助手

109 阅读2分钟

最近Deepseek模型过于火爆,很多人经常遇到服务器繁忙问题,读完本篇文章可以在自己电脑上部署DeepSeek大模型。

本地部署适合想研究体验大模型的选手,想要体验满血效果可以去第三方平台,各大ai平台也上线了满血deepseek。目前体验下来硅基流动的效果最好,延迟最低。完成 SiliconCloud 账号注册,立刻获得 2000万 Tokens,有兴趣的可以点击链接体验一下。 cloud.siliconflow.cn/i/ZGIUQ6Rt

好了,话不多说,让我们进入今天的ai部署教程。

安装步骤

一.安装Ollama工具

Ollama是为用户在自己电脑上运行ai模型的开源工具

1.1 下载客户端

点击官网:ollama.com/

打开后点击首页的 Download 按钮 Snipaste_2025-02-22_23-36-22.png

页面跳转到下载页,选择需要的客户端版本,这里我选择windows

Snipaste_2025-02-22_23-36-42.png

下载完是一个.exe程序

Snipaste_2025-02-22_21-03-06.png

点击安装

Snipaste_2025-02-22_23-41-34.png

1.2 下载Deepseek模型

安装完毕后回到Ollama网页,这里我贴出Deepseek模型下载地址:ollama.com/library/dee…

打开网页后可以看到模型选择页面,我的主机配置是 CPU:5600X GPU:AMD 5600 8G显存 内存:32G,这里我选择的8b版本,不知道选什么的可以先尝试 deepseek-r1:1.5b

Snipaste_2025-02-22_21-06-52.png

打开终端输入命令点击回车:

DeepSeek-R1-Distill-Qwen-1.5B

ollama run deepseek-r1:1.5b

DeepSeek-R1-Distill-Llama-8B

ollama run deepseek-r1:8b

等待模型下载完成 Snipaste_2025-02-22_23-02-01.png

这时候已经可以使用Deepseek本地模型了,不过得打开终端,还是不太方便。我们可以借助工具:ChatBox,集成了本地模型的可视化界面。

二.安装GUI界面-ChatBox

下载地址:chatboxai.app/zh 下载完后点击安装

Snipaste_2025-02-22_23-10-33.png

第一次打开选择使用自己的API Key或本地模型 Snipaste_2025-02-22_23-11-47.png 这里我们选择Ollama API

Snipaste_2025-02-22_23-12-10.png API 主机:http://127.0.0.1:11434 模型选择刚刚下载的Deepseek本地版本,点击保存即可。

Snipaste_2025-02-22_23-12-48.png 部署成功后就可以使用自己的本地Deepseek模型啦!

Snipaste_2025-02-22_23-13-41.png