DeepSeek又被黑崩溃!别慌,用这招10分钟完成DeepSeek本地部署,打工人速存!(附保姆级教程)

4,114 阅读5分钟

大家好,我是程序员X小鹿,前互联网大厂程序员,自由职业2年+,也是一名 AIGC 爱好者,持续分享前沿的「AI工具」和「AI 副业玩法」,期待和大家一起交流~

DeepSeek 一发布,便引起了全球轰动。

然而 DeepSeek 轰动世界的那一刻,也是争议和挑战的开端。

由于最近 DeepSeek 遭受了大规模、持续的恶意攻击,导致 DeepSeek 的服务器很不稳定。

在和 AI 对话时,经常会出现类似下面这样「服务器繁忙」的情况。

图片

那有什么好的办法能用上稳定的 DeepSeek 吗?

一种方式是,切换到 360 的「纳米AI搜索」使用 DeepSeek。

纳米AI搜索里集成了国内 10 多个大模型,其中就包含 DeepSeek:

图片

另一种方式,就是本地部署 DeepSeek。

下面整理了 DeepSeek 本地部署的一些优势:

图片

其实对于大部分用户,直接使用 DeepSeek 官网或 APP 就可以了,免费不限量。(服务器不稳定只是暂时的)

不过如果想自己折腾一下,实现 DeepSeek 自由,也是可以的。

这篇就来详细讲讲,如何在自己的电脑上部署 DeepSeek-R1。

保姆级教程,10 分钟教会,小白也能轻松上手!

一、下载安装 Ollama

先来介绍一下 Ollama。

Ollama,是一款开源的大语言模型本地部署框架,主要用于在本地机器上便捷地部署和运行大语言模型(LLM)。

非专业用户通过 Ollama,只需要输入简单的指令,就能方便地管理和运行这些复杂的 AI 模型。

Ollama 的下载、安装也非常简单。

Ollama 下载:

进入 Ollama 官网:ollama.com/

Ollama 支持在 macOS、Linux、Windows 上安装。根据自己的电脑系统选择不同的版本进行下载:

图片

Ollama 安装:

下载好后,按指示安装就可以了。

图片

Ollama 安装成功验证:

在命令行窗口中输入 ollama -v,能显示出 Ollama 的版本,就说明安装成功了:

图片

二、下载安装 DeepSeek-R1

安装完 Ollama 后,接下来安装 DeepSeek-R1。

在「Model」中找到「deepseek-r1」模型,点进去:

图片

下拉框中显示了不同版本的模型对应的「参数规模」和「模型文件大小」:

图片

其中 b 代表 billion(十亿)。

“1.5b 1.1GB”表示模型有 15 亿(1.5 billion)参数,模型文件大小为 1.1 GB。

参数规模越大,能力越强,相应的对电脑配置的要求也越高。

可以根据「电脑配置」或「需求场景」,选择合适的模型下载。

如果不清楚自己的电脑配置适合部署哪个模型,可以直接问 DeepSeek,像下面这样:

图片

下面是 DeepSeek-R1 回答的<关于部署 DeepSeek-R1 不同参数模型在 Windows 和 macOS 系统下的最低配置要求>:

图片

不过感觉 DeepSeek 回答的还是相对保守了一些:比如对于 7b 参数规模的模型,Mac 内存 16G,也是可以跑起来的。

确定好适合安装的模型后,打开命令行窗口,输入命令 ollama run deepseek-r1 或 ollama run deepseek-r1:xxxb 就可以安装了。

例如:

  • 如果要安装 32b 的模型,命令就是 ollama run deepseek-r1:32b
  • 如果不写「:xxxb」,默认安装的是 7b 的。

图片

当看到出现 success,就说明 DeepSeek-R1 本地部署成功了。

这时就可以输入问题和 DeepSeek-R1 对话了:

图片

图片

三、下载安装 Chatbox

其实到上面这一步,DeepSeek-R1 的本地部署已经完成了。

但是如果不习惯在黑窗口中和 DeepSeek 对话,可以安装 Chatbox。

Chatbox,是一个开源的 AI 模型桌面客户端,支持多种主流 AI 模型 和 API,如 ChatGPT、Claude、Google Gemini、Ollama 等。

进入 Chatbox 官网:

chatboxai.app/zh

Chatbox 可在 Windows、MacOS、Android、iOS、Linux 和网页版上使用。根据自己的电脑系统选择不同的版本进行下载:

图片

Chatbox 安装好一进来,就会看到这个界面。选择「使用自己的 API Key 或本地模型」:

图片

模型提供方选择「OLLAMA API」,模型选择「deepseek-r1」:

图片

上下文消息数量上限和 Temperature 可以默认不变,也可以根据需求调整。

最后点保存,就可以像在 DeepSeek 官网上一样正常使用 DeepSeek-R1 进行对话了:

图片

四、几点说明

对于大部分用户,如果对数据安全要求不是那么高,或者电脑配置不是很高,那么直接使用 DeepSeek 官网或 DeepSeek APP,就可以了。

图片

在 DeepSeek 官网点开「深度思考(R1)」,这里使用的就是 671b 的 DeepSeek-R1 模型,免费不限量使用。

另外需要说明的是:

1.5b ~ 70b 这 6 个模型,是基于 Llama 和 Qwen 从 DeepSeek-R1 蒸馏出来的。

图片

图片

虽然能力也不差,但是如果电脑配置不是很高,大概率本地只能部署 1.5b、7b、8b 这些,那效果肯定是不如DeepSeek 官网或 APP 提供的 671b 的「满血版」DeepSeek-R1 好。

大家可以根据自己的「本地配置」和「需求场景」,来选择是否需要本地部署 DeepSeek。

补充:

另外如果你想体验稳定的、671b 满血版的 DeepSeek-R1,办法还是有的!可以试试下面这个方法:

别再学DeepSeek本地部署了,根本没用!用这招5分钟用上满血版DeepSeek-R1,手机可用,打工人速存!(附保姆级教程)

好了,以上就是今天的分享,有需要的可以试试~


推荐阅读:

国产AI杀疯了,吊打ChatGPT!一文读懂DeepSeek:DeepSeek入门最全教程!(新手必看)

9大AI领域,70+精选AI工具汇总,全都在这了!超全干货,建议收藏!(含工具教程)