免费域名互联网访问 DeepSeek R1 本地部署UI面板+ API使用 +域名绑定互联网 喂饭教程 ai(3) #人工智能 #deepseek #ai #chatgpt youtu.be/UH_wTwujySA 【博客(国内) 】► amclubss.com/deepseek-ui 【GitHub仓库】► github.com/amclubs 【博客(国际) 】► amclubs.blogspot.com/2025/02/dee…
《部署教程说明》DeepSeek R1 本地部署open-webui、Dify面板+本地API调用实用教程+免费域名外网访问,实现自己本地部署并页面访问或外网访问可分享接口或页面给任务人使用 完全免费 可离线使用
一、准备工作
① 注册地址
👉 点击进入官网注册
② 本地部署 工具Ollama
一个免费使用、本地运行、具有隐私意识的聊天机器人。无需 GPU 或互联网。
👉 Ollama安装和使用视频教程
👉 Ollama安装 + 网页插件视频教程
👉 点击官网下载Ollama地址
部署命令:
1.5B Qwen DeepSeek R1
ollama run deepseek-r1:1.5b
7B Qwen DeepSeek R1
ollama run deepseek-r1:7b
8B Llama DeepSeek R1
ollama run deepseek-r1:8b
14B Qwen DeepSeek R1
ollama run deepseek-r1:14b
32B Qwen DeepSeek R1
ollama run deepseek-r1:32b
70B Llama DeepSeek R1
ollama run deepseek-r1:70b
二、硬件配置说明
- Windows 配置: 最低要求:NVIDIA GTX 1650 4GB 或 AMD RX 5500 4GB,16GB 内存,50GB 存储空间 推荐配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 内存,100GB NVMe SSD 高性能配置:NVIDIA RTX 3090 24GB 或 AMD RX 7900 XTX 24GB,64GB 内存,200GB NVMe SSD
- Linux 配置: 最低要求:NVIDIA GTX 1660 6GB 或 AMD RX 5500 4GB,16GB 内存,50GB 存储空间 推荐配置:NVIDIA RTX 3060 12GB 或 AMD RX 6700 10GB,32GB 内存,100GB NVMe SSD 高性能配置:NVIDIA A100 40GB 或 AMD MI250X 128GB,128GB 内存,200GB NVMe SSD
- Mac 配置: 最低要求:M2 MacBook Air(8GB 内存) 推荐配置:M2/M3 MacBook Pro(16GB 内存) 高性能配置:M2 Max/Ultra Mac Studio(64GB 内存) 可根据下表配置选择使用自己的模型
| 模型名称 | 参数量 | 大小 | VRAM (Approx.) | 推荐 Mac 配置 | 推荐 Windows/Linux 配置 |
|---|---|---|---|---|---|
| deepseek-r1:1.5b | 1.5B | 1.1 GB | ~2 GB | M2/M3 MacBook Air (8GB RAM+) | NVIDIA GTX 1650 4GB / AMD RX 5500 4GB (16GB RAM+) |
| deepseek-r1:7b | 7B | 4.7 GB | ~5 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 8GB / AMD RX 6600 8GB (16GB RAM+) |
| deepseek-r1:8b | 8B | 4.9 GB | ~6 GB | M2/M3/M4 MacBook Pro (16GB RAM+) | NVIDIA RTX 3060 Ti 8GB / AMD RX 6700 10GB (16GB RAM+) |
| deepseek-r1:14b | 14B | 9.0 GB | ~10 GB | M2/M3/M4 Pro MacBook Pro (32GB RAM+) | NVIDIA RTX 3080 10GB / AMD RX 6800 16GB (32GB RAM+) |
| deepseek-r1:32b | 32B | 20 GB | ~22 GB | M2 Max/Ultra Mac Studio | NVIDIA RTX 3090 24GB / AMD RX 7900 XTX 24GB (64GB RAM+) |
| deepseek-r1:70b | 70B | 43 GB | ~45 GB | M2 Ultra Mac Studio | NVIDIA A100 40GB / AMD MI250X 128GB (128GB RAM+) |
| 模型参数规模 | 典型用途 | CPU 建议 | GPU 建议 | 内存建议 (RAM) | 磁盘空间建议 | 适用场景 |
|---|---|---|---|---|---|---|
| deepseek-r1:1.5b(15亿) | 小型推理、轻量级任务 | 4核以上 (Intel i5 / AMD Ryzen 5) | 可选,入门级 GPU (如 NVIDIA GTX 1650, 4GB 显存) | 8GB | 10GB 以上 SSD | 小型 NLP 任务、文本生成、简单分类 |
| deepseek-r1:7b(70亿) | 中等推理、通用任务 | 6核以上 (Intel i7 / AMD Ryzen 7) | 中端 GPU (如 NVIDIA RTX 3060, 12GB 显存) | 16GB | 20GB 以上 SSD | 中等规模 NLP、对话系统、文本分析 |
| deepseek-r1:14b(140亿) | 中大型推理、复杂任务 | 8核以上 (Intel i9 / AMD Ryzen 9) | 高端 GPU (如 NVIDIA RTX 3090, 24GB 显存) | 32GB | 50GB 以上 SSD | 复杂 NLP、多轮对话、知识问答 |
| deepseek-r1:32b(320亿) | 大型推理、高性能任务 | 12核以上 (Intel Xeon / AMD Threadripper) | 高性能 GPU (如 NVIDIA A100, 40GB 显存) | 64GB | 100GB 以上 SSD | 大规模 NLP、多模态任务、研究用途 |
| deepseek-r1:70b(700亿) | 超大规模推理、研究任务 | 16核以上 (服务器级 CPU) | 多 GPU 并行 (如 2x NVIDIA A100, 80GB 显存) | 128GB | 200GB 以上 SSD | 超大规模模型、研究、企业级应用 |
| deepseek-r1:671b(6710亿) | 超大规模训练、企业级任务 | 服务器级 CPU (如 AMD EPYC / Intel Xeon) | 多 GPU 集群 (如 8x NVIDIA A100, 320GB 显存) | 256GB 或更高 | 1TB 以上 NVMe SSD | 超大规模训练、企业级 AI 平台 |
三、open-webui 安装
👉 Open-WebUI官方地址 👉 Open-WebUI官方文档地址
① Docker方式安装
- 如果您的计算机上有 Ollama,请使用以下命令:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- 要运行支持 Nvidia GPU 的 Open WebUI,请使用以下命令:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
- 更新 Open 要轻松更新 Open WebUI 容器,请按照以下步骤操作:
- 手动 使用Watchtower手动更新你的 Docker 容器:
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
- 自动 保持你的容器每 5 分钟自动更新一次:
docker run -d --name watchtower --restart unless-stopped -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --interval 300 open-webui
🔧注意:open-webui如果不同,请替换为您的容器名称。
② uv方式安装(推荐)运行时管理uv器可确保为 Open WebUI 等应用程序提供无缝的 Python 环境管理。请按照以下步骤开始使用:
- 安装uv:
- macOS/Linux:
curl -LsSf https://astral.sh/uv/install.sh | sh
- Windows:
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"
- 运行 Open WebUI
- macOS/Linux:
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve
- Windows:
$env:DATA_DIR="C:\open-webui\data"; uvx --python 3.11 open-webui@latest serve
③ pip方式安装
Python 3.11 是开发环境。Python 3.12 似乎可以运行,但尚未经过彻底测试。Python 3.13 完全未经测试 —使用时风险自负。
打开终端并运行以下命令:
pip install open-webui
安装后,使用以下命令启动服务器:
open-webui serve
更新 Open 要更新到最新版本,只需运行:
pip install --upgrade open-webui
说明:此方法会安装所有必需的依赖项并启动 Open WebUI,从而实现简单高效的设置。安装后,您可以通过http://localhost:8080访问 Open WebUI 。尽情享受吧!
四、Dify UI安装:
👉 Dify官方地址 👉 Dify官方安装文档
1. 快速启动
在安装 Dify 之前,请确保您的机器满足以下最低系统要求:
- CPU >= 2 核
- 内存 >= 4 GiB
启动 Dify 服务器最简单的方式是通过docker compose。在使用以下命令运行 Dify 之前,请确保您的机器上已安装Docker 和Docker Compose:
将 Dify 源代码克隆到本地机器:
git clone https://github.com/langgenius/dify.git
启动 Dify
cd dify
cd docker
cp .env.example .env
docker compose up -d
2. 访问 Dify
进入管理员初始化页面设置管理员账户:
# 本地环境
http://localhost/install
# 服务器环境
http://your_server_ip/install
Dify网页界面地址:
# 本地环境
http://localhost
# 服务器环境
http://your_server_ip
五、外网映射访问
👉 ngrok官方地址 👉 ngrok注册视频教程
➖➖相关视频推荐教程➖➖
- 点击观看调用本地API+SpringBoot调用本地API 教程
- 点击观看DeepSeek R1大模型多方式本地部署实用教程
- 点击观看全免费ChatGPT桌面版本win安装
- 点击观看💰AI制作快速3D动画影片,📈 轻松在家赚钱教程
- 点击观看Llama3.1一键本地部署最强开源大模型教程
- 点击观看免费GPT-4o教程
- 点击观看AI分享、人工智能所有教程