DeepSeek-R1 满血版懒人包:附 Ollama + Chatbox + 模型文件
摘要: 最近 DeepSeek 官网总是服务器繁忙,而且 API 调用经常超时。其实我们完全可以在本地部署一个!
很多小伙伴反映:Ollama 官网下载速度只有几 KB,HuggingFace 更是打不开。
别担心!我已经把所有需要的软件(Ollama + Chatbox)和模型文件(GGUF)全部打包好了,放入网盘,一键下载,解压即用!
1. 为什么要本地部署?
- 隐私安全: 你的对话数据只在本地,不会上传云端。
- 不限速/不排队: 哪怕官网崩了,你的本地 AI 依然健步如飞。
- 无限制: 解锁 DeepSeek-R1 的全部推理能力。
2. 懒人包资源清单(见文末)
为了方便大家,我整理了 Windows 一键安装包,包含以下内容:
- OllamaSetup.exe:目前最流行的本地大模型运行框架(已下载好,免去官网龟速下载之苦)。
- Chatbox-1.x.x-Setup.exe:高颜值的 AI 对话客户端,支持通过界面管理模型。
- DeepSeek-R1-Distill-Llama-8B.gguf:已经下载好的模型文件,适合 8G/16G 内存的普通电脑运行。
3. 保姆级安装教程
第一步:安装 Ollama
下载解压我的懒人包后,双击 OllamaSetup.exe,一路点击 Install 即可。
安装完成后,桌面右下角会出现一个小羊驼图标,说明服务已启动。
(此处建议插入一张 Ollama 安装成功的截图,或者右下角托盘图标的截图)
第二步:验证安装
按下 Win + R,输入 cmd,回车。在黑窗口输入:
codeBash
downloadcontent_copy
expand_less
ollama --version
如果显示版本号,说明环境配置成功!
第三步:加载 DeepSeek 模型
如果你下载了我提供的懒人包里的 .gguf 模型文件,可以直接通过命令导入。
或者,你也可以直接在 CMD 中输入以下命令(Ollama 会自动拉取,但速度取决于你的网速):
codeBash
downloadcontent_copy
expand_less
# 拉取 8B 版本(适合 16G 内存电脑,速度快)
ollama run deepseek-r1:8b
# 如果你是 32G 以上内存的土豪,可以拉取 32B 版本
ollama run deepseek-r1:32b
等待进度条跑完,你就可以在命令行里和 AI 对话了!
(此处建议插入一张 CMD 窗口里进度条跑完的截图)
第四步:安装 Chatbox(图形化界面)
天天对着黑窗口敲代码太累了,我们安装 Chatbox。
- 双击懒人包里的 Chatbox Installer.exe 安装。
- 打开软件,点击“设置”。
- 模型提供方 选择:Ollama。
- API 域名 保持默认:http://localhost:11434。
- 模型 下拉菜单中,选择刚才安装的 deepseek-r1:8b。
(此处建议插入一张 Chatbox 设置界面的截图,圈出“Ollama”和“模型选择”)
点击保存,现在你可以像使用微信一样和 DeepSeek 畅聊了!而且完全免费、离线可用!
4. 常见问题 FAQ
Q1: 我的电脑配置低,能跑吗?
A: 建议至少 8GB 内存。如果只有 8G,建议跑 1.5b 或 7b 的版本。我的懒人包里提供的是兼容性最好的 8B 版本。
Q2: 为什么对话速度慢?
A: 本地推理主要靠显卡(GPU)。如果你没有独立显卡,靠 CPU 跑会比较吃力,这是正常现象。
Q3: 下载链接在哪?
A: 由于平台限制,链接放在评论区容易被吞。请关注后查看置顶评论,或私信发送【DeepSeek】获取下载链接!
📦 附:DeepSeek-R1 满血版部署包下载
为了方便大家快速上手,我把本文提到的核心工具和模型文件打包整理好了(含部署工具 + 完整模型文件)。文件体积较大,已上传至网盘,需要的同学可以直接免费下载:
- 获取链接:pan.quark.cn/s/54fc3392c…
- 提取码:3zkk
(注:模型文件较大,建议在PC端预留充足的存储空间后下载。)
写在最后:
整理不易,如果这个懒人包帮你在 5 分钟内跑通了 DeepSeek,请 点赞 + 收藏 + 关注 支持一下!