前言
随着 DeepSeek-R1 在春节期间的亮相,其强大的性能吸引了大量技术爱好者的关注。虽然用户的反馈存在一定分歧,但国际技术巨头的震惊反应无疑证明了该模型在行业中的非凡影响力。如果你也想体验 DeepSeek-R1 的强大功能,并在本地搭建环境进行部署,本文将为你提供详细的部署指南。 Leo哥将带你了解部署全流程,帮助你轻松上手,快速搭建本地环境,解锁 DeepSeek-R1 的更多潜力。
无论你是初学者还是经验丰富的开发者,这份指南都将为你提供清晰的步骤与操作建议,确保你能够顺利完成部署,并探索其强大的技术能力。让我们一起踏上这一充满挑战与机会的探索之旅!
基本环境准备
安装Ollama
首先访问 Ollama官网 ,根据你的操作系统(Windows、Mac或Linux)下载相应安装包。
下载完成之后,macOS 只需要拖进应用程序即可,而不需要额外进行安装。
双击即可开始进行运行。
进行验证
也可以在浏览器输入 http://localhost:11434/
,查看Ollama运行状态。
Google Chrome 2025-02-13 14.07.50.png
模型部署
1. 选择模型版本
- 打开Ollama模型库,选择适合自己电脑硬件的DeepSeek-R1模型版本(1.5B、7B、32B等)。
配置原则
操作系统:
• Windows 和 macOS 均可作为部署平台。确保你的系统版本是最新的,并且已安装所有必要的更新。
• Linux 环境通常是最优的选择,但若你使用 Windows 或 Mac,确保具备兼容的软件版本。
• 硬件要求:
• CPU:推荐使用至少 4 核以上 的 CPU。
• GPU(可选):对于深度学习模型的加速,安装兼容的 NVIDIA GPU 会显著提高训练和推理速度。确保安装了支持的 CUDA 版本和 cuDNN。
• 内存:建议至少 8GB 内存,如果你处理大量数据或进行更复杂的模型训练,推荐 16GB 或以上 内存。
• 存储:确保有足够的存储空间,建议至少 50GB 的硬盘空间用于数据和模型存储。
1.5B模型
平台 | 最低配置 | 推荐配置 |
---|---|---|
Windows | - CPU: Intel i5 / Ryzen 5 | - CPU: Intel i7 / Ryzen 7 |
- RAM: 8GB | - RAM: 16GB | |
- GPU: NVIDIA GTX 1650 (4GB) | - GPU: RTX 3060 (12GB) | |
macOS | - M1/M2 芯片(8GB 统一内存) | - M1 Pro/Max 或 M3 芯片(16GB+) |
Linux | - CPU: 4 核 | - CPU: 8 核 |
- RAM: 8GB | - RAM: 16GB | |
- GPU: NVIDIA T4 (16GB) | - GPU: RTX 3090 (24GB) | |
7B/8B 模型
平台 | 最低配置 | 推荐配置 |
---|---|---|
Windows | - CPU: Intel i7 / Ryzen 7 | - CPU: Intel i9 / Ryzen 9 |
- RAM: 16GB | - RAM: 32GB | |
- GPU: RTX 3060 (12GB) | - GPU: RTX 4090 (24GB) | |
macOS | - M2 Pro/Max(32GB 统一内存) | - M3 Max(64GB+ 统一内存) |
Linux | - CPU: 8 核 | - CPU: 12 核 |
- RAM: 32GB | - RAM: 64GB | |
- GPU: RTX 3090 (24GB) | - 多卡(如 2x RTX 4090) |
14B 模型
平台 | 最低配置 | 推荐配置 |
---|---|---|
Windows | - GPU: RTX 3090 (24GB) | - GPU: RTX 4090 + 量化优化 |
- RAM: 32GB | - RAM: 64GB | |
macOS | - M3 Max(64GB+ 统一内存) | - 仅限量化版本,性能受限 |
Linux | - GPU: 2x RTX 3090(通过 NVLink) | - 多卡(如 2x RTX 4090 48GB) |
- RAM: 64GB | - RAM: 128GB |
再高的话,基本上本地部署就不推荐了。
下载运行
确定适合自己电脑配置的模型版本后,就可以开始下载和运行模型了。打开终端命令窗口,输入对应的运行指令。
- 若选择 1.5B 版本,输入 ollama run deepseek-r1:1.5b 。
- 若选择 7B 版本,输入 ollama run deepseek-r1:7b 。我选择的是这个。
- 若选择 8B 版本,输入 ollama run deepseek-r1:8b 。
- 若选择 32B 版本,输入 ollama run deepseek-r1:32b 。
这一步骤是由网速决定的,网速慢的多等待一会就好了。
看到出现 success 字样说明已经下载成功了。
然后就可以通过在控制台进行对他一些简单的提问测试了。
可以看到,成功运行。
安装 Cherry Studio
显然,我们不可能一直使用控制台来进行提问,急需一个可视化界面来进行代替。
Cherry Studio
它支持多服务商集成的AI对话客户端
CherryStudio目前支持市面上绝大多数服务商的集成,并且支持多服务商的模型统一调度。
前往 Cherry Studio 官方网站,根据你的操作系统(支持 Windows、Mac 和 Linux)下载对应的安装包。
配置
打开 Cherry Studio,在设置中找到 “模型设置” 选项。
- 模型选择:从模型列表中选择与本地部署的 DeepSeek-R1 版本相对应的选项。如果没有完全匹配的模型,可以选择支持自定义配置的选项。
- 自定义配置:在自定义配置中,将 API 地址 设置为 http://localhost:11434 , 这是 Ollama 服务的默认接口地址,确保 Cherry Studio 能顺利连接到本地的 DeepSeek-R1 模型。
- 模型参数设置:根据硬件配置和具体需求调整模型参数。默认设置适用于大多数情况,但对于某些任务,你可以根据需要进行调整。例如,生成创意文本时,将 温度 设置为 0.8 - 1.0 以增加多样性;而在进行精确知识问答时,将 温度 设置为 0.5 - 0.7 可使回答更为稳定。
- API 密钥:可以根据自己的需求设置 API 密钥,设置完成后,点击 检查 即可。
然后在管理中添加我们刚安装过的 deepseek-r1 的版本。
Cherry Studio 2025-02-13 14.34.00.png
配置完成后大家记得默认模型也可以配制成 deepseek。
测试
然后进行测试即可。
大功告成!!!
Obsidian 2025-02-13 14.58.38.png
本文使用 markdown.com.cn 排版