DeepSeek在春节期间横空出世,火遍大街小巷。但过于火爆也导致服务器瘫痪,笔者在体验时也遇到DeepSeek很多次“服务器繁忙,请稍后再试”的回复,就想着部署一个本地版好了,部署过程记录下来整理成这篇文章,也希望能帮助到和笔者有同样困扰的人,部署本地DeepSeek不需要有任何编程基础,只要有电脑就行,但要求是电脑的配置要稍微高一点,不然可能会把你的电脑拖死。这里也需要说明一下,这里部署的是阉割版本。如果要部署完整版本的话,需要收费,很贵,一般企业用户才会选择原版。对于个人小白用户来说,阉割版免费,也够用的。
普通用户使用7B的模型即可,电脑配置要求如下:
- 内存: 16GB及以上
- GPU: NVIDIA RTX 4080 16GB及以上
确保你的电脑配置足够之后,就跟着笔者来一步步部署吧。
- 下载并安装Ollama客户端
Ollama是一个开源的部署和运行大型语言模型的本地化工具,支持在macOS、Linux和Windows上离线运行模型,无需联网。Ollama官网地址:ollama.com/
点开后进入以下页面,根据你的电脑系统选择对应的下载文件。
笔者这里下载的是Windows版本,如下图所示。
双击exe文件,安装Ollama客户端。
安装完成后,按下键盘上的win+r键调出运行窗口,输入cmd,点击确定。
输入Ollama,回车。
出现以上画面,说明Ollama安装成功。
- 安装DeepSeek模型
回到Ollama主页,ollama.com/,选择Models -> deepseek-r1 或者直接选择DeepSeek-R1,如下图。
点进去之后,根据你的电脑配置选择对应的大小的模型,DeepSeek-R1模型各个版本说明和硬件要求如下图:
我这里选择7B,点击后面的复制按钮。
回到cmd窗口,粘贴命令,回车。
等待下载完成,下载完成之后,出现"success"字样,到此为止,你已经在本地部署好了DeepSeek-R1模型。
接下来你就可以在"Send a messgae"地方输入你想要输入的问题,因为是本地的,所以回复很快。但是,不可能每次对话都打开这个窗口吧,这也太原始太不方便了,所以接下来我们来安装一个可视化聊天窗口,ChatBox。安装完ChatBox,我们再和DeepSeek对话,就是下面的页面。
3. 安装ChatBox
ChatBox官网:chatboxai.app/zh
同样的先下载ChatBox,进入其官网,选择免费下载,如下图所示:
下载完成之后,双击exe文件安装。
安装完成后,选择设置,配置DeepSeek-R1模型。
接下来,恭喜你,可以使用可是对话框和DeepSeek模型对话了。