【保姆级教程】如何免费把DeepSeek模型部署到本地使用

942 阅读5分钟

一、安装教程:Ollama与AnythingLLM安装及DeepSeek模型下载
1.选择下载的安装包右键解压。(安装包末尾获取)

2.解压后,右键以管理员身份运行Ollama安装程序。

3.点击Install安装完成即可。

4.在D盘创建一个名为“OllamaAI”的文件夹。接着,打开系统环境变量,新增一个变量:

变量名:OLLAMA_MODELS
变量值:D:\OllamaAI

温馨提示:此步骤旨在解决Ollama默认将模型下载到C盘的问题,如果C盘空间充足,可以跳过此步骤。
在系统设置中搜索“系统变量”以进入相关设置。


5.重启电脑后,在开始菜单中找到并打开Ollama程序,启动后,您会在电脑右下角看到一个羊驼图标。

6.按快捷键Win+R,输入cmd确定。

7.输入 ollama run + 模型名称,然后按回车键开始下载。
(根据下方附图中的硬件要求选择下载一个或多个模型。此过程可能会稍慢,如果下载失败,请重新输入命令再次尝试。)

**1、ollama run deepseek-r1:1.5b
2、ollama run deepseek-r1:7b
3、ollama run deepseek-r1:8b
**

4、ollama run deepseek-r1:14b

根据自己的电脑配置选择模型(附上配置参考图片)


如图所示:

安装中:

8.deepseek-r1模型下载完成后,当提示“success”时,表示下载已成功完成。

打开新的CMD窗口,输入命令并按回车键,下载nomic-embed-text嵌入式模型(此模型将在后续数据投喂中使用)。
ollama pull nomic-embed-text

当提示“success”时,表示下载已成功完成。

温馨提示:
若需要删除模型,请输入命令 ollama rm + 模型名称,例如:ollama rm deepseek-r1:14b

9.当 deepseek-r1 和 nomic-embed-text 模型下载完成后,开始安装 AnythingLLM 软件。

  1. 选择【所有用户】并点击“下一步”,根据自己的需求继续点击“下一步”即可。
  2. 下载完成后,打开 AnythingLLM,点击【Get started】。
  3. 点击箭头,进入下一步。
  4. 输入工作区名称,点击箭头继续。
  5. 点击【设置】,在其中可以设置模型、界面显示语言等选项。

    15、找到Display Language,把默认语言改文为Chinese。即可设置成中文

二、关于AnythingLLM设置

  1. 在软件设置中的 LLM首选项 界面,选择提供商为 Ollama,在 Ollama Model 中选择前面下载的 DeepSeek-R1 系列模型,点击 Save changes 保存更改。
  2. 在 Embedder首选项 界面,选择嵌入引擎提供商为 Ollama,在 Ollama Embedding Mode 中选择 nomic-embed-text,然后点击 保存更改。
  3. 点击 工作区设置,在 聊天设置 界面:
    ❶ 将 工作区LLM提供商 选择为 Ollama,
    ❷ 将 工作区聊天模型 选择为 deepseek-r1,
    ❸ 然后点击 Update workspace agent 更新工作区dai--li。


4. 在 dai--li配置 界面,将 工作区dai--liLLM提供商 选择为 Ollama,将 工作区dai--li模型 选择为 deepseek-r1,点击 Update workspace agent 更新工作区dai--li。

三、如何投喂数据(训练AI)
1.在工作区界面,点击【上传】。

  1. 点击 Upload,选择需要上传的文件(支持 PDF、TXT、Word、Excel、PPT 等常见文档格式)。勾选需要上传的文件。点击 Move to Workspace 将文件移动到工作区

四、DeepSeek-R1应用展示

五、一招教你告别服务器繁忙!
一、硅基流动+Chatbox AI
硅基流动x华为云联合推出基于昇腾云的 DeepSeekR1&V3推理服务(注册有赠送免费获取2000万Tokens)

注册地址:点击注册
登录后,您将进入模型广场,那里可以看到DeepSeek R1模型,并可直接在线体验。

然而,我觉得直接对话的方式并不十分便捷。


所以我们这里使用的是Chatbox AI一个简单易用的 AI 客户端应用,我们可以用它来调用本地模型,有更多的预设角色方便日常工作,通过简单的配置可运行。
官网:chatboxai.app/zh

首次打开Chatbox AI时,选择‘使用自己的API密钥或本地模型’,然后选择‘SiliconFlow API(硅基流动)如果没有的话可以点击设置


接着,打开硅基流动中的API密钥(可以新建一个密钥)


将密钥复制到Chatbox AI中,选择模型‘DeepSeek R1’,然后保存即可。

如果遇到模型是用不了的情况可以切换其他模型


二、Deepseek本地模型+Chatbox AI 设置方法
1、Chatbox AI 配置调用本地我们之前通过ollama下载的deepseek模型

2、添加自定义提供方

3、选择“Ollama API”。

4、选择我们已经通过ollama已经下载的deepseek模型,然后保存。


5、相对AnythingLLM可视化对话AI工具,Chatbox AI工具会更符合日常的需求(有更多的预设角色)


至此,整个安装流程已圆满完成。

经过实际体验现在,您可以尽情地使用 DeepSeek,无需再为访问受限而烦恼,畅享无拘无束的使用体验吧!

但是总的来说由于使用的人太多调用还是会慢一些,本地相对会稳定一些。

「保姆级教程教你如何免费把deepseek模型部署到本地使用+投喂数据训练」:pan.quark.cn/s/23bfbf151…

「2025年最火Deepseek资源资料汇总」:pan.quark.cn/s/c96265579…

PS:以上文案来自网络收集重新编组