DeepSeek服务器总是繁忙?手把手教你本地部署一个DeepSeek(小白也可轻松上手)

93 阅读2分钟

你是否遇到过DeepSeek服务器繁忙、工作进度卡壳的尴尬情况?尤其是在关键时刻,等待服务器的响应简直让人抓狂!别急,今天我们就来帮你彻底解决这个问题——手把手教你如何在本地部署一个DeepSeek!不仅能让你的工作流程更加顺畅,还能提升数据处理效率,彻底告别“服务器繁忙”的烦恼。无论你是技术小白还是资深开发者,这篇教程都能让你轻松上手,快来一起试试吧!

1. 下载ollama

  • ollama是一款常用的AI模型运行框架,支持多个开源模型,允许用户在不编写代码的情况下,通过命令在本地运行大型语言模型。

  • 下载地址:

  • ollama.com/download

  • 选择适合自己的系统进行下载(这里我们下载windows版本的)

图片

2. 安装ollama

  • 下载完毕后,点击下载的OllamaSetup.exe文件,一键安装

图片

  • 验证安装是否完成:键盘win+R,输入cmd调出命令行进入到命令模式,输入命令 ollama -v 查看是否安装成功,输入完命令出现了版本号的话就说明安装成功!

图片图片

3. 部署deepseek-r1:7B

  • 回到ollama官网,进行deepseek-r1下载,进入路径如下,copy下载命令

图片

  • 如果是在个人电脑上进行下载,且内存比较紧张,建议下载7b或者8b版本的deepseek

图片

  • 在命令行运行该命令,进行deepseek的安装

图片

  • 界面上出现success,则安装成功,可以直接进行对话

图片

4. 使用与对话

  • 安装完毕之后,我们应该怎么样唤起deepseek进行对话呢?
  • 唤醒cmd命令行后,输入命令 ollama list 可以查看下载好的模型

图片

  • 输入 ollama run deepseek-r1:7b  就可以直接进入对话

图片图片

  • 输入命令 /bye 可以退出对话

5. 部署可视化界面UI

  • 至此,我们的deepseek就部署成功啦!!但是你是否觉得每次打开的路径过于繁琐?命令行的输入十分不友好?别急!马上开始可视化界面部署!给我们的deepseek安装一个友好的对话界面!!!
  • 下载ChatboxAi ,地址:chatboxai.app/zh  ,根据个人系统进行选择(这里我们选择windows版本),下载后一键安装即可

图片

  • 打开Chatbox后出现配置弹窗,进行相关配置,选择本地模型

图片

  • 选择Ollama API

图片

  • 选择deepseek-r1模型,进行配置保存 

图片

  • 可以发现聊天界面中的模型就是本地的deepseek-r1:7b模型!!现在可以开心的问deepseek问题啦!! (注:第一次问答问题时可能需要等待的时间比较久,之后的回答速度会更快些)

图片