以下是基于 Windows 系统在本地部署 DeepSeek R1 并接入 Dify 的详细步骤:
Windows 本地部署 DeepSeek R1
1. 安装 Ollama
- Ollama官网下载:Ollama
- Ollama 是一个开源工具,支持在本地运行大型语言模型(LLM),适用于 Windows。
- 下载 Ollama 安装包并安装。安装完成后,可以通过命令行工具查看版本信息。
2. 下载并运行 DeepSeek R1 模型
- DeepSeek R1 模型下载
- 根据本地硬件配置选择合适的模型版本(例如 1.5b、7b、8B 、14b 或 32b)。
该配置建议选择8B参数模型
bash复制
ollama run deepseek-r1:8b
如果硬件资源有限,可选择较小的模型版本。
3. 测试模型
- 在命令行中cmd输出问题与模型进行交互,验证模型是否正常运行。
部署 Dify 平台
1. 安装 Docker
- 下载并安装 Docker Desktop。确保安装完成后,Docker 服务正常运行。
1. 下载 Dify 项目
- 访问 Dify 的 GitHub 仓库,下载项目代码并解压到本地。欢迎使用 Dify | Dify
- docs.dify.ai/zh-hans
2. 配置 Docker 环境
- 进入项目根目录,找到
docker文件夹中的.env.example文件,并将其重命名为.env。 - 在终端中运行以下命令启动 Dify 服务:
bash复制
docker compose up -d
此时,Dify 所需的所有服务将通过 Docker 启动。
3. 完成 Dify 初始化
- 在浏览器中访问
http://127.0.0.1/install或http://localhost/signin按照提示完成 Dify 的注册和初始化。
三、将 DeepSeek 接入 Dify
1. 配置 Dify 的 .env 文件
- 在
.env文件末尾添加以下配置:
plaintext复制
# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Ollama 的 API 地址(Windows 下使用 host.docker.internal)
OLLAMA_API_BASE_URL=host.docker.internal:11434
2. 配置 Dify 与 DeepSeek v3 的关联
- 登录 Dify 平台,进入 模型供应商 配置页面,选择 DeepSeek 并添加模型。
- 模型名称:
deepseek r1:8bURL:http://host.docker.internal:11434
- 确保 Dify 能够通过配置的 API 地址访问 Ollama 提供的 DeepSeek 服务。
四、测试与使用
- 在 Dify 平台中创建应用,选择 聊天助手 类型,并与 DeepSeek r1 模型进行交互。
- 如果需要使用私有知识库,可以上传知识库文件并配置相关参数。
通过以上步骤,您可以在 Windows 系统上本地部署 DeepSeek r1,并成功接入 Dify 平台,实现专属的 AI 应用开发。