手把手教你部署 DeepSeek 本地模型教程

407 阅读3分钟

手把手教你部署 DeepSeek 本地模型,如果电脑配置不够,部署的模型能力太差,文章结尾给你提供一个非常棒的思路。

昨天写了苹果和安卓手机本地化安装 Deepseek 教程,很多小伙伴在后台私信我如何在电脑端实现 deepseek 本地化安装,虽然已经有很多教程了,我还是继续给大家写一份吧。

部署 DeepSeek 本地模型,并通过 Ollama 提供 API 支持,ChatBox、Cherry Studio、OneAPI、LobeChat、NextChat 等 app 提供 UI 界面。主要包括以下步骤:

  • 下载 Ollama 和 Chatbox
  • 本地安装运行 DeepSeek R1 模型
  • 打开 APP 并配置为本地 DeepSeek
  • 开始畅聊吧~

如果不想动手,文章结尾提供 10 几种 deepseek 免费平替的渠道回复【平替】就能获取这些渠道。

1

   

一、访问 Ollama 官方网站下载 Ollama:

网址:ollama.com/ollama.com/ ),进入 Ollama 官方网站后,点击 Download 按钮下载符合自己平台的 Ollama:

图片

我这里选择 macOS,点击下载。下载文件大小不到 200M,文件名为:Ollama-darwin.zip,解压后打开 Ollama 应用程序直接安装。

2

   

下载 Deepseek R1 模型

还是刚才的网址,能够看到 Ollama 已经支持 DeepSeek-R1 的部署,目前 ollama 上几乎能下载市面上所有的开源模型。

如图所示,能看到 deepseek 的模型和参数:

图片

目前 deepseek-r1 模型大小提供了 7 个选择:1.5b、7b、8b、14b、32b、70b、671b。

一般大家的笔记本的显卡配置较低,模型上面也罗列了各种模型需要的显卡要求,大家可以根据自己的显存大小来下载,常模型大小(参数量)越大,模型的理解和生成能力越强,但也会消耗更多的计算资源。我用 7b 模型来做演示:

图片

按照提示,打开终端,使用 Command + Space 快捷键调用 terminal,在终端窗口运行下面命令

图片

安装完成之后,就可以在命令行直接对话使用了。

3

   

下载 APP 并配置为本地 DeepSeek

命令行对话其实体验很差,所以需要一个UI很好看的app来方便使用。目前支持 deepseek 本地运行的 app 有很多,ChatBox、Cherry Studio、OneAPI、LobeChat、NextChat 等都支持本地运营 deepseek,我这里推荐大家下载 chatbox,官方地址 chatboxai.app/。

图片

下载完成打开之后,选择 OLLAMA API(不要选择deepseek ai),然后就可以看到我们上一步安装好的 deepseek-r1:7b.

图片

4

   

无需联网也能和 DeepSeek 畅快聊天

配置好 DeepSeek 本地模型之后,就可以实现在断网情况下自由问答了。

本地部署的模型能力其实比较差,因为参数太小了,后期大家可以利用 deepseek 提供的思维链(就是 AI 思考的那部分,简而言之,就是一个更高维度的提示词)。喂给小模型,这样就能得到一个非常好的结果,我会在后续文章里面给大家普及。


最后,如果你不想本地下载或者安装,可以直接尝试使用 deepseek 的平替渠道。

公众号回复【平替】就能获取这些渠道。