快上车!3 步搞定 DeepSeek 本地部署,小白也能轻松逆袭!

765 阅读6分钟

嘿,小伙伴们!今天给大家带来一个超实用的干货分享,那就是如何在短短 10 分钟内完成 DeepSeek 的本地部署!是不是听起来就很心动?别急,跟着我一步步来,小白也能轻松逆袭,成为 AI 领域的弄潮儿!

为啥要本地部署 DeepSeek?

DeepSeek 是一款强大的 AI 推理模型,专注于数学、代码和自然语言推理任务。它通过强化学习技术显著提升推理能力,仅需少量标注数据即可高效训练,还支持多步骤逻辑推理,能够逐步分解复杂问题并解决。

不过,DeepSeek 的服务器最近总是被恶意攻击,还时不时宕机,国内用户热情又高,服务器负担一重,大家用起来就卡卡的,体验感直线下降。所以,本地部署就成了咱们的“救星”,不仅能摆脱这些烦恼,还能随时随地享受畅快的 AI 体验,简直不要太爽!

硬件要求别担心,普通电脑也能搞定

先别被“硬件要求”这几个字吓到,其实现在的主流个人电脑配置,基本都能满足 DeepSeek 的运行需求。给大家简单科普一下,DeepSeek 有好几个模型可供选择:

DeepSeek-R1 1.5BDeepSeek-R1 7BDeepSeek-R1 8B
内存至少 8GB至少 16GB至少 32GB
显卡显存 4GB 以上的设备显存 8GB 以上的设备VIDIA GeForce RTX 3060 或更高
处理器Intel Core i5 或同等级别的 AMD 处理器推荐 Intel Core i7 或性能更优的产品Intel Core i9 或性能更优的处理器

个人用户的话,我建议直接选 DeepSeek-R1 7B 模型,性价比超高,语言理解和生成能力都很棒,日常需求妥妥能满足,硬件要求也刚好在大多数现代个人电脑的“舒适区”。

一、Ollama 工具的安装和下载

Ollama 是一个开源的本地化大模型部署工具,支持多种模型架构,并提供与 OpenAI 兼容的 API 接口,适合开发者和企业快速搭建私有化 AI 服务。它还提供命令行工具,方便用户下载、加载和切换模型。

1. 下载 Ollama

打开浏览器,访问 Ollama 官网:ollama.com/

点击【Download】按钮跳转到 Ollama 下载页面,然后选择合适我们自己电脑的软件版本,如下图:

点击【Download for Windows】按钮,开始下载 Ollama 的安装包。

2. 安装 Ollama

注意:Ollama 默认安装在C盘,但可以通过以下方法将其安装到其他磁盘分区

先使用命令提示符导航到保存“OllamaSetup.exe”文件的目录,再输入以下命令来指定安装路径:

OllamaSetup.exe /DIR="E:\Learning_Software\Ollama"

E:\Learning_Software\Ollama”是我本地的安装路径,如果需要安装到其他磁盘目录可以进行修改,具体如下图:

点击【Install】按钮直接安装即可,安装完成后可以在开始菜单中找到 Ollama,或者在桌面右下角的状态栏中看到 Ollama 的图标。

在命令提示符中输入“Ollama -v”,查看 Ollama 安装的版本信息,如下图:

二、下载 DeepSeek 模型

注意:Ollama 模型下载的目录默认是在C盘,但可以通过以下方法将其下载到其他磁盘分区

1. 下载模型前的准备

在 Ollama 安装目录下新建“models”文件夹,如下图:

右键点击【此电脑】或【计算机】图标,选择【属性】,然后点击【高级系统设置】,并在【系统属性】窗口中,切换到【高级】选项卡,点击【环境变量】。

在【环境变量】窗口中,【系统变量】下点击【新建】按钮,输入变量名 “OLLAMA_MODELS”,变量值为新创建的目录路径,例如 “E:\Learning_Software\Ollama\models”,具体如下图:

2. 下载模型

搞定 Ollama 后,就该下载 DeepSeek 模型了。在 Ollama 网站的“Models”页面,找到“DeepSeek”模型,它有从 1.5B 到 671B 不等的多个参数规模可供选择,大家一定要根据自己的电脑配置,尤其是内存和显存,来挑选合适的模型规模。

选好后,复制右边的命令,粘贴到 cmd 命令提示符中运行,系统就会开始下载模型,大概二十分钟左右(具体还得看网速)

看到“success”提示,就表示安装成功啦!这时候,DeepSeek 已经可以用了。

3. 效果测试

这里以“DeepSeek-R1 1.5B模型”为例,输入“请以诗仙李白的身份为泰山作一首诗”,运行结果如下:

如果想要安装其他版本的模型,可以在命令提示符中重新输入下载命令,我这里安装了“DeepSeek-R1 7B模型”,大概三十分钟左右(具体还得看网速),如下图:

继续输入“请以诗仙李白的身份为泰山作一首诗”,运行结果如下:

通过以上对比发现,“DeepSeek-R1 7B模型”相比于“DeepSeek-R1 1.5B模型”,在复杂的逻辑推理任务中表现更好,能够更准确地处理多步骤推理,生成的长文本在连贯性和逻辑性方面表现更好,能够更好地保持主题一致性和逻辑连贯性,且生成的内容更加多样化,能够提供更多的创意和不同的表达方式。

上面在命令提示符界面中的体验效果可能有点粗糙,别急,还有下一步能让体验更上一层楼。

三、Chatbox AI 可视化工具安装

为了让 DeepSeek R1 的使用体验更流畅、更直观,我强烈建议大家安装 Chatbox AI 可视化工具,这可是提升操作便捷性的“神器”。

Chatbox AI 是一款开源的桌面客户端应用,支持 Windows、MacOS、Android、iOS、Linux 和网页版。它不仅界面美观简洁,还支持与文档和图片聊天、代码生成与预览、实时联网搜索与查询、AI 生成的图表可视化见解、AI 驱动的图像生成、LaTeX 和 Markdown 渲染等功能。而且,Chatbox 将所有数据存储在本地,从对话历史记录到个人设置,所有内容都存储在您的设备上,让您完全掌控并安心。

1. 下载安装

下载地址:chatboxai.app/zh

找到适合自己操作系统的版本下载安装。

安装完成后,首次启动时,系统会提示你添加模型,点击【使用自己的 API Key或本地模型】按钮

选择“Ollama API”,接着在下拉菜单里找到之前安装好的“deepseek-r1:1.5b”模型,点击保存,搞定!

保存后界面效果如下:

2. 效果测试

选择“deepseek-r1:1.5b”模型,输入“请以诗仙李白的身份为泰山作一首诗”,运行结果如下:

切换到“deepseek-r1:7b”模型,运行结果如下:

整个流程是不是超简单?跟着这三步,轻松学会 DeepSeek 的本地部署安装,从此开启畅快的 AI 使用之旅!

小伙伴们,别再羡慕别人玩得溜,现在就是你逆袭的最好时机!赶紧按照这个教程操作起来,让 DeepSeek 成为你手里的“神兵利器”,在 AI 世界里大展身手吧!要是觉得这篇分享对你有用,别忘了点赞、转发哦,让更多小伙伴一起加入这个 AI 的大潮!