DeepSeek R1 大模型本地部署,这里采用的工具组合是:Ollama + DeepSeek
Ollama 是一个开源工具,专注于在本地运行和管理大型语言模型(LLMs)。它简化了 LLMs 的下载、部署和运行过程,支持多种模型(如 LLaMA、Mistral 等),并提供类似 OpenAI 的 API 接口,方便开发者集成到自己的应用中。
一、 ollama 安装配置
1.下载 ollama,登录官网:ollama.com/
点击Download进行下载。安装包有400多M。
安装完成后,打开命令终端
然后运行命令ollama,出现如下的界面表示ollama安装成功
2.安装大模型
在 ollama 官网上选择 Models,找到 deepseek 点击进去
可以看到 deepseek-r1有1.5b,7b,8b,14b,32b,70b,671b的选择,根据自己的机器配置进行安装。
如何评估自己电脑能跑哪个模型呢,每个模型需要的显存大小都在右边有显示
只要你的显存大小大于模型需要的即可。比如我这台笔记本是8G左右。因此能支持1.5b、7b、8b这三款。而且我的显卡是集显,还不是GPU的。
点击按钮进行命令复制
在命令终端中运行命令,大概等个20分钟的样子,就安装完成了。此时你就可以本地和deepseek进行对话了