DeepSeek本地部署,保姆级教程,打造属于自己的AI,告别服务器繁忙稍后再试!
前言
随着2024年初DeepSeek火爆全球,先进的算法和卓越的能力,直接出圈,以一己之力推动国内AI大模型跨越式发展,作为一款大模型AI产品,随着用户量增加,服务器被攻击,使用DeepSeek经常会出现服务繁忙,自此我将DeepSeek部署在本地电脑就会方便许多。
第一步、官网下载Ollama
部署DeepSeek要用到 Ollama,它支持多种大模型。官网
- 打开
ollama官网 - 下载
Ollama注意:如果点击下载没反应或者一直转圈圈,先打开加速器,进入到下载后再关闭加速器。
- 下载后进行安装
一直双击下一步,直到完成安装为止。
第二步、下载 DeepSeek-R1及其他模型
-
进入
Ollama官网,找到Models,进入就可以看到deepseek-r1模型,如果没有,在搜索栏搜索即可,搜索到点击进去即可。 -
选择对应的模型来下载,
1.5b、7b、8b、14b、32b、70b或671b,这里有很多版本可选,模型越大,要求电脑内存、显卡等的配置越高。我的这台机子是4060ti的显卡,选择8b的模型。 -
找到
Windows【开始菜单】,鼠标右键点击【终端管理员】。 -
复制下边
8b的代码,复制到打开的终端回车进行下载。等待下载,直到出现
success即可部署完成下载及部署完成
-
部署完成后就可以使用对话
第三步、部署可视化WebUI界面
- 下载安装
下载Chatbox AI下载Chatbox AI官网 - 设置并选择
Ollama API部署完成,就可以正常使用了。
注意:可能需要在防火墙中允许Ollama服务的端口(默认为 11434),具体取决于你的操作系统和网络环境。为避免安全风险,请不要将 Ollama 服务暴露在公共网络中。家庭Wifi网络是一个相对安全的环境。
总结
以上三个步骤,就可以将deepSeek部署在本地电脑上了,再也不担心服务器异常问题的出现了。