🚀 DeepSeek + Ollama 本地部署全流程
✨ 引言
随着 AI 大模型的发展,越来越多的开发者希望在本地运行 AI 模型,以保证 数据隐私、安全性,同时减少对云端 API 的依赖。Ollama 是一个简洁高效的本地推理工具,支持 DeepSeek R1、LLaMA、Mistral 等多个大模型。
本教程将带你完成 Ollama 的安装,并在 Windows 上运行 DeepSeek,实现本地 AI 推理。
🛠️ 1. Windows 安装 Ollama
1.1 下载并安装 Ollama
1️⃣ 打开 Ollama 官网
2️⃣ 选择 Windows 版本 并下载
3️⃣ 运行 安装包 (.exe) ,按照指引完成安装
4️⃣ 安装完成后,打开 PowerShell 或 命令提示符 (cmd) ,输入:
ollama
✅ 如果出现 Ollama 相关信息,说明安装成功。
📥 2. 下载并运行 DeepSeek R1 本地模型
2.1 拉取 DeepSeek R1 模型
DeepSeek R1 是一个适合编程辅助的 AI 模型,可用于 代码补全、代码优化、智能对话。
在终端执行以下命令,拉取 DeepSeek R1 模型(大约 4GB):
ollama pull deepseek-coder
⌛ 下载时间取决于你的网络速度,耐心等待完成。
🚀 3. 启动并使用 DeepSeek R1
3.1 运行 DeepSeek R1
下载完成后,执行以下命令启动模型:
ollama run deepseek-coder
如果运行成功,你会看到终端中出现模型加载信息,并提示可以输入问题。
✍️ 例如,你可以输入:
写一个Java版本的冒泡排序
🔹 DeepSeek R1 将会返回完整的 Java 代码,并提供解释。
🔗 4. 在 IntelliJ IDEA 中调用本地 DeepSeek R1
如果你希望在 IntelliJ IDEA 中直接调用本地模型,可以使用 API 接口方式。
4.1 开启 API 模式
执行以下命令,让 DeepSeek R1 在本地作为 API 服务器运行:
ollama serve
运行过程中发现 Ollama 运行 exe 执行后已经默认可以 API 访问。
默认情况下,Ollama 会在 http://localhost:11434 监听请求。
4.2 在 IntelliJ IDEA 中接入本地 AI 模型
1️⃣ 安装 CodeGPT 插件
2️⃣ 配置 CodeGPT Provider 选择 Ollama
3️⃣ 配置 Ollama API 地址和选择模型
4.3 在 IntelliJ IDEA 中使用 DeepSeek 模型效果
🔍 5. 解决常见问题
❓ Ollama 运行时报错:无法找到 GPU
🔹 目前 Windows 版本的 Ollama 仅支持 CPU,如果你希望用 GPU,可以考虑在 WSL2 或 Linux 环境运行。
❓ DeepSeek R1 启动缓慢或崩溃
🔹 可能是 内存不足,建议关闭其他占用内存较高的应用(如浏览器、IDE)后重试。
❓ 如何升级 Ollama
🔹 运行以下命令即可更新至最新版:
ollama update
🎯 总结
本文介绍了 如何在 Windows 上安装 Ollama 并运行 DeepSeek R1,包括 安装、下载模型、启动本地 AI 推理,并且提供了在 IntelliJ IDEA 中调用本地 AI 模型的方法。
💡 本地 AI 模型的优势:
✅ 保护隐私,代码不会上传到云端
✅ 无需依赖外部 API,断网也能用
✅ 降低成本,无需订阅付费 API
如果你有任何问题,欢迎在评论区交流!🔥
🌟 觉得有帮助的话,记得点赞 + 收藏!