本地部署 DeepSeek

801 阅读5分钟

DeepSeek 本地化部署:在自己电脑上部署 DeepSeek-R1-1.5B 模型

前言

最近,DeepSeek 因其强大的语义理解能力,成为了AI圈子里炙手可热的明星。越来越多的小伙伴纷纷开始尝试使用 DeepSeek。最让人惊讶的还是它的本地化部署,听说后很多人以为这会是个复杂的任务,但经过验证后才发现,部署其实非常简单,就像在电脑上安装一个普通软件一样,十多分钟就能完成。今天,我们就来分享如何在自己的电脑上本地化部署 DeepSeek-R1-1.5B 模型。

一、为什么要部署 DeepSeek-R1-1.5B?

作为一个轻量级的模型,DeepSeek-R1-1.5B 仅有 15亿 参数,虽然看起来不大,但它的性能非常出色。相较于更大规模的模型,它在处理实时文本生成和小型任务时非常高效。最吸引人的是,它只需要 3GB 显存,因此即便是配置不高的电脑,也能够轻松运行。

此外,DeepSeek-R1-1.5B 在数学推理、文本生成等方面表现非常优异,甚至在一些基准测试中超越了 GPT-4 和 Claude 3.5。对于资源有限的小伙伴来说,这是一个非常不错的选择。

二、DeepSeek 不同版本的硬件要求

DeepSeek 提供了多个版本的模型,不同版本的硬件要求不同。你可以根据自己的电脑配置来选择最合适的版本。 以下是你给出的 DeepSeek 各版本模型的完整表格,其中包括每个模型的参数量、显存需求、推荐 GPU 配置等信息:

模型版本参数量显存需求(FP16)推荐 GPU(单卡)多卡支持量化支持适用场景
DeepSeek-R1-1.5B15亿3GBGTX 1650(4GB显存)无需支持低资源设备部署(树莓派、旧款笔记本)、实时文本生成、嵌入式系统
DeepSeek-R1-7B70亿14GBRTX 3070/4060(8GB显存)可选支持中等复杂度任务(文本摘要、翻译)、轻量级多轮对话系统
DeepSeek-R1-8B80亿16GBRTX 4070(12GB显存)可选支持需更高精度的轻量级任务(代码生成、逻辑推理)
DeepSeek-R1-14B140亿32GBRTX 4090/A5000(16GB显存)推荐支持企业级复杂任务(合同分析、报告生成)、长文本理解与生成
DeepSeek-R1-32B320亿64GBA100 40GB(24GB显存)推荐支持高精度专业领域任务(医疗/法律咨询)、多模态任务预处理
DeepSeek-R1-70B700亿140GB2x A100 80GB/4x RTX 4090(多卡并行)必需支持科研机构/大型企业(金融预测、大规模数据分析)、高复杂度生成任务
DeepSeek-671B6710亿512GB+(单卡显存需求极高,通常需要多节点分布式训练)8x A100/H100(服务器集群)必需支持国家级/超大规模 AI 研究(气候建模、基因组分析)、通用人工智能(AGI)探索

对于普通开发者或资源有限的环境,推荐选择 DeepSeek-R1-1.5B 版本。

三、DeepSeek 本地部署步骤

3.1 下载并安装 Ollama

首先,我们需要安装 Ollama,它是 DeepSeek 模型的管理工具。你可以从官网或者 GitHub 下载 Ollama。

• 官网下载链接:Ollama 官网

• GitHub 下载链接:GitHub 项目

下载的安装包大小大约 745MB,安装过程跟普通软件一样,直接双击安装文件 OllamaSetup.exe。

3.2 检查 Ollama 是否安装成功****

安装完成后,可以通过命令行检查是否安装成功:

ollama -v

如果显示版本号信息,就说明安装成功。

3.3 拉取 DeepSeek 模型

Ollama 支持大模型列表:ollama.com/library

选择 DeepSeek 大模型版本,如下图所示:

image.png

使用 Ollama 下载 DeepSeek-R1-1.5B 模型:

ollama run deepseek-r1:1.5b

整个模型大小大约 1.1GB,下载过程较为顺畅,大约 5-6 分钟后就能完成。看到 [success] 字样即表示安装成功。

3.4 与 DeepSeek 对话

安装完成后,我们就可以开始与 DeepSeek 对话了。在命令行输入问题,例如:

程序员如何避免35岁焦虑?

DeepSeek 会根据你的输入提供相应的回答。

image.png

3.5 安装 WebUI 提升体验

为了提升与 DeepSeek 互动的体验,我们可以安装 WebUI。在浏览器中添加插件 Page Assit,并进行相应配置。完成配置后,你可以通过快捷键 Ctrl + Shift + L 打开 WebUI 页面,选择模型并开始对话。

image.png

四、DeepSeek-R1-1.5B 的实际应用场景

尽管 DeepSeek-R1-1.5B 是一个轻量级模型,它在许多实际场景中依然表现出色。比如:

智能客服:在小型企业中,可以用它来快速回答客户的常见问题。

语言学习:它可以帮助用户进行语言翻译,尤其适合在学习英语等外语时使用。

创意写作:对于写作者,它可以帮助生成创意段落,快速完成文案创作。

五、小结

通过这篇文章,我们可以看到,DeepSeek-R1-1.5B 的本地化部署其实并不复杂,只需要简单几步就能在自己的电脑上实现。这个轻量级的模型不仅占用资源少,而且在许多实际应用场景中都能发挥出色的效果。如果你还没试过,赶紧动手试试吧!