DeepSeek + Ollama 本地部署全流程

527 阅读3分钟

🚀 DeepSeek + Ollama 本地部署全流程

✨ 引言

随着 AI 大模型的发展,越来越多的开发者希望在本地运行 AI 模型,以保证 数据隐私、安全性,同时减少对云端 API 的依赖。Ollama 是一个简洁高效的本地推理工具,支持 DeepSeek R1、LLaMA、Mistral 等多个大模型。

本教程将带你完成 Ollama 的安装,并在 Windows 上运行 DeepSeek,实现本地 AI 推理。


🛠️ 1. Windows 安装 Ollama

1.1 下载并安装 Ollama

1️⃣ 打开 Ollama 官网
2️⃣ 选择 Windows 版本 并下载
3️⃣ 运行 安装包 (.exe) ,按照指引完成安装
4️⃣ 安装完成后,打开 PowerShell命令提示符 (cmd) ,输入:

ollama

✅ 如果出现 Ollama 相关信息,说明安装成功。

Snipaste_2025-02-12_17-04-08.png


📥 2. 下载并运行 DeepSeek R1 本地模型

2.1 拉取 DeepSeek R1 模型

DeepSeek R1 是一个适合编程辅助的 AI 模型,可用于 代码补全、代码优化、智能对话

在终端执行以下命令,拉取 DeepSeek R1 模型(大约 4GB):

ollama pull deepseek-coder

下载时间取决于你的网络速度,耐心等待完成。

Snipaste_2025-02-12_12-43-38.png


🚀 3. 启动并使用 DeepSeek R1

3.1 运行 DeepSeek R1

下载完成后,执行以下命令启动模型:

ollama run deepseek-coder

如果运行成功,你会看到终端中出现模型加载信息,并提示可以输入问题。

✍️ 例如,你可以输入:

写一个Java版本的冒泡排序

🔹 DeepSeek R1 将会返回完整的 Java 代码,并提供解释。

Snipaste_2025-02-12_17-08-02.png


🔗 4. 在 IntelliJ IDEA 中调用本地 DeepSeek R1

如果你希望在 IntelliJ IDEA 中直接调用本地模型,可以使用 API 接口方式。

4.1 开启 API 模式

执行以下命令,让 DeepSeek R1 在本地作为 API 服务器运行:

ollama serve

运行过程中发现 Ollama 运行 exe 执行后已经默认可以 API 访问。

默认情况下,Ollama 会在 http://localhost:11434 监听请求。

image.png


4.2 在 IntelliJ IDEA 中接入本地 AI 模型

1️⃣ 安装 CodeGPT 插件 Snipaste_2025-02-12_17-35-06.png 2️⃣ 配置 CodeGPT Provider 选择 Ollama Snipaste_2025-02-12_17-37-32.png 3️⃣ 配置 Ollama API 地址和选择模型 Snipaste_2025-02-12_17-48-17.png

4.3 在 IntelliJ IDEA 中使用 DeepSeek 模型效果

20250212-180206.gif


🔍 5. 解决常见问题

❓ Ollama 运行时报错:无法找到 GPU

🔹 目前 Windows 版本的 Ollama 仅支持 CPU,如果你希望用 GPU,可以考虑在 WSL2 或 Linux 环境运行。

❓ DeepSeek R1 启动缓慢或崩溃

🔹 可能是 内存不足,建议关闭其他占用内存较高的应用(如浏览器、IDE)后重试。

❓ 如何升级 Ollama

🔹 运行以下命令即可更新至最新版:

ollama update

🎯 总结

本文介绍了 如何在 Windows 上安装 Ollama 并运行 DeepSeek R1,包括 安装、下载模型、启动本地 AI 推理,并且提供了在 IntelliJ IDEA 中调用本地 AI 模型的方法。

💡 本地 AI 模型的优势
✅ 保护隐私,代码不会上传到云端
✅ 无需依赖外部 API,断网也能用
✅ 降低成本,无需订阅付费 API

如果你有任何问题,欢迎在评论区交流!🔥

🌟 觉得有帮助的话,记得点赞 + 收藏!