DeepSeek R1 本地部署

365 阅读1分钟

DeepSeek R1 大模型本地部署,这里采用的工具组合是:Ollama + DeepSeek

Ollama 是一个开源工具,专注于在本地运行和管理大型语言模型(LLMs)。它简化了 LLMs 的下载、部署和运行过程,支持多种模型(如 LLaMA、Mistral 等),并提供类似 OpenAI 的 API 接口,方便开发者集成到自己的应用中。

一、 ollama 安装配置

1.下载 ollama,登录官网:ollama.com/

点击Download进行下载。安装包有400多M。

image.png

安装完成后,打开命令终端

然后运行命令ollama,出现如下的界面表示ollama安装成功

image.png

2.安装大模型

在 ollama 官网上选择 Models,找到 deepseek 点击进去

image.png

可以看到 deepseek-r1有1.5b,7b,8b,14b,32b,70b,671b的选择,根据自己的机器配置进行安装。

image.png 如何评估自己电脑能跑哪个模型呢,每个模型需要的显存大小都在右边有显示

image.png

只要你的显存大小大于模型需要的即可。比如我这台笔记本是8G左右。因此能支持1.5b、7b、8b这三款。而且我的显卡是集显,还不是GPU的。

image.png

点击按钮进行命令复制

image.png

在命令终端中运行命令,大概等个20分钟的样子,就安装完成了。此时你就可以本地和deepseek进行对话了

image.png

image.png