DeepSeek R1 本地部署+本地API调用+SpringBoot调用本地DeepSeek API实用教程

5 阅读8分钟

amclubss.com/deepseek-ap…

《部署教程说明》

DeepSeek R1 本地部署+本地API调用+SpringBoot调用本地DeepSeek API实用教程、集成VS Code、JetBrains等开发工具中

一、准备工作

注册地址 👉 点击进入官网注册

本地部署 工具Ollama 一个免费使用、本地运行、具有隐私意识的聊天机器人。无需 GPU 或互联网。 👉 Ollama安装和使用视频教程 👉 Ollama安装 + 网页插件视频教程 👉 点击官网下载Ollama地址 部署命令: 1.5B Qwen DeepSeek R1

ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1

ollama run deepseek-r1:7b

8B Llama DeepSeek R1

ollama run deepseek-r1:8b

14B Qwen DeepSeek R1

ollama run deepseek-r1:14b

32B Qwen DeepSeek R1

ollama run deepseek-r1:32b

70B Llama DeepSeek R1

ollama run deepseek-r1:70b

二、硬件配置说明

  1. Windows 配置: 最低要求:NVIDIA GTX 1650 4GB 或 AMD RX 5500 4GB,16GB 内存,50GB 存储空间 推荐配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 内存,100GB NVMe SSD 高性能配置:NVIDIA RTX 3090 24GB 或 AMD RX 7900 XTX 24GB,64GB 内存,200GB NVMe SSD
  2. Linux 配置: 最低要求:NVIDIA GTX 1660 6GB 或 AMD RX 5500 4GB,16GB 内存,50GB 存储空间 推荐配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 内存,100GB NVMe SSD 高性能配置:NVIDIA A100 40GB 或 AMD MI250X 128GB,128GB 内存,200GB NVMe SSD
  3. Mac 配置: 最低要求:M2 MacBook Air(8GB 内存) 推荐配置:M2/M3 MacBook Pro(16GB 内存) 高性能配置:M2 Max/Ultra Mac Studio(64GB 内存) 可根据下表配置选择使用自己的模型
模型名称参数量大小VRAM (Approx.)推荐 Mac 配置推荐 Windows/Linux 配置
deepseek-r1:1.5b1.5B1.1 GB~2 GBM2/M3 MacBook Air (8GB RAM+)NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+)
deepseek-r1:7b7B4.7 GB~5 GBM2/M3/M4 MacBook Pro (16GB RAM+)NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+)
deepseek-r1:8b8B4.9 GB~6 GBM2/M3/M4 MacBook Pro (16GB RAM+)NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+)
deepseek-r1:14b14B9.0 GB~10 GBM2/M3/M4 Pro MacBook Pro (32GB RAM+)NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+)
deepseek-r1:32b32B20 GB~22 GBM2 Max/Ultra Mac StudioNVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+)
deepseek-r1:70b70B43 GB~45 GBM2 Ultra Mac StudioNVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+)
模型参数规模典型用途CPU 建议GPU 建议内存建议 (RAM)磁盘空间建议适用场景
deepseek-r1:1.5b(15亿)小型推理、轻量级任务4核以上 (Intel i5 / AMD Ryzen 5)可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存)8GB10GB 以上 SSD小型 NLP 任务、文本生成、简单分类
deepseek-r1:7b(70亿)中等推理、通用任务6核以上 (Intel i7 / AMD Ryzen 7)中端 GPU (如 NVIDIA RTX 3060, 12GB 显存)16GB20GB 以上 SSD中等规模 NLP、对话系统、文本分析
deepseek-r1:14b(140亿)中大型推理、复杂任务8核以上 (Intel i9 / AMD Ryzen 9)高端 GPU (如 NVIDIA RTX 3090, 24GB 显存)32GB50GB 以上 SSD复杂 NLP、多轮对话、知识问答
deepseek-r1:32b(320亿)大型推理、高性能任务12核以上 (Intel Xeon / AMD Threadripper)高性能 GPU (如 NVIDIA A100, 40GB 显存)64GB100GB 以上 SSD大规模 NLP、多模态任务、研究用途
deepseek-r1:70b(700亿)超大规模推理、研究任务16核以上 (服务器级 CPU)多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存)128GB200GB 以上 SSD超大规模模型、研究、企业级应用
deepseek-r1:671b(6710亿)超大规模训练、企业级任务服务器级 CPU (如 AMD EPYC / Intel Xeon)多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存)256GB 或更高1TB 以上 NVMe SSD超大规模训练、企业级 AI 平台

三、ChatBox本地API调用教程

👉 点击官网下载ChatBox地址 👉 点击使用视频教程 ai

我正在写一篇文章,手动部署DeepSeek本地模型,调用本地API使用教程。请你帮我生成10个吸引眼球的标题供我选择。

四、SpringBoot本地API调用教程

使用Ollama部署deepseek-r1大模型,我们就可以开始使用Spring Boot + Spring AI来调用deepseek-r1大模型了 点击下载SpringBoot代码地址 IDEA开发工具下载地址

点击官网构建Spring Boot项目 点击ADD DEPENDENCIES,搜索Ollama添加依赖,这是Spring AI对 Ollama 的实现支持。 打开生成的项目,查看pom.xml,可以看到核心依赖:

<dependency>
	<groupId>org.springframework.ai</groupId>
	<artifactId>spring-ai-ollama-spring-boot-starter</artifactId>
</dependency>

说明:如果你要在现有项目中集成的话,就可以直接添加这个依赖即可。

配置Ollama的相关信息:application.properties或application.yml

spring.ai.ollama.base-url=http://localhost:11434
spring.ai.ollama.chat.model=deepseek-r1:1.5b

说明:Ollama API 默认调用端口号:11434

写个单元测试,尝试调用Ollama中的deepseek-r1模型,这里尝试实现一个翻译的功能

@SpringBootTest
class TestApplicationTests {
	@Autowired
	private OllamaChatModel ollamaChatModel;
	@Test
	void testChatModel() {
		String prompt = "你是一个精通中文和英文的翻译大师。如果我给你英文就翻译成中文,给你中文就翻译成英文。";
		String message =
			"""	
			 DeepSeek-V3 achieves a significant breakthrough in inference speed over previous models.
			 It tops the leaderboard among open-source models and rivals the most advanced closed-source models globally.	
			""";
		String result = this.ollamaChatModel.call(prompt + ":" + message);
		System.out.println(result);
	}
}

运行单元测试,结果如下:

<think>
好的,用户让我把一段英文翻译成中文,并且反过来也行。首先,我需要仔细阅读原文,确保不遗漏任何关键信息。

原文是:“DeepSeek-V3 achieves a significant breakthrough in inference speed over previous models. It tops the leaderboard among open-source models and rivals the most advanced closed-source models globally.”

首先,“DeepSeek-V3”应该是模型名称,所以翻译成“深度求索-3”比较合适。“achievable in inference speed”可以译为“在推理速度上取得了重大突破”,这里的“inference speed”指的是计算速度。

然后,“over previous models”是说它超过了之前的模型,所以翻译成“相比之前的所有模型”。

接下来的部分:“tops the leaderboard among open-source models”意思是它超过了开源模型的排行榜,这里需要用“在开源模型中领先于所有”来表达。

最后一句,“rival the most advanced closed-source models globally”是说它和最先进、最复杂的闭源模型竞争全球,翻译成“与最前沿、最强大的闭源模型的竞争”。

组合起来就是:“深度求索-3在推理速度上取得了重大突破。相比之前的所有模型,在开源模型中领先于所有,并且与最前沿、最强大的闭源模型的竞争。”

完成这些翻译后,我需要检查一下是否准确传达了原文的意思,确保没有遗漏任何细节或者语法错误。

如果用户希望反过来翻译,也就是将中文翻译成英文,我可以继续回应这个请求。
</think>

深度求索-3在推理速度上取得了重大突破。相比之前的所有模型,在开源模型中领先于所有,并且与最前沿、最强大的闭源模型的竞争。

可以看到结果响应分成两部分,先是 <think> 标签包含的内容,这是模型根据提供的提示,生成了一个思考的过程,最后才输出了翻译后的结果。

五、集成VS Code、JetBrains等开发工具

IDEA工具安装 CodeGPT 插件 或 Continue 插件 IDEA开发工具下载地址 ai

VS Code工具安装 CodeGPT 插件或 Continue 插件 VS Code开发工具下载地址 ai

➖➖相关视频推荐教程➖➖

[点击观看视频教程]