基于 Windows 系统在本地部署 DeepSeek R1 并接入 Dify

2,267 阅读2分钟

以下是基于 Windows 系统在本地部署 DeepSeek R1 并接入 Dify 的详细步骤:


Windows 本地部署 DeepSeek R1

1. 安装 Ollama

  • Ollama 是一个开源工具,支持在本地运行大型语言模型(LLM),适用于 Windows。
  • 下载 Ollama 安装包并安装。安装完成后,可以通过命令行工具查看版本信息。

2. 下载并运行 DeepSeek R1 模型

  • DeepSeek R1 模型下载

  • 根据本地硬件配置选择合适的模型版本(例如 1.5b、7b、8B 、14b 或 32b)。

该配置建议选择8B参数模型

bash复制

ollama run deepseek-r1:8b

如果硬件资源有限,可选择较小的模型版本。

3. 测试模型

  • 在命令行中cmd输出问题与模型进行交互,验证模型是否正常运行。


部署 Dify 平台

1. 安装 Docker

  • 下载并安装 Docker Desktop。确保安装完成后,Docker 服务正常运行。

1. 下载 Dify 项目

2. 配置 Docker 环境

  • 进入项目根目录,找到 docker 文件夹中的 .env.example 文件,并将其重命名为 .env
  • 在终端中运行以下命令启动 Dify 服务:

bash复制

docker compose up -d

此时,Dify 所需的所有服务将通过 Docker 启动。

3. 完成 Dify 初始化


三、将 DeepSeek 接入 Dify

1. 配置 Dify 的 .env 文件

  • .env 文件末尾添加以下配置:

plaintext复制

# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Ollama 的 API 地址(Windows 下使用 host.docker.internal)
OLLAMA_API_BASE_URL=host.docker.internal:11434

2. 配置 Dify 与 DeepSeek v3 的关联

  • 登录 Dify 平台,进入 模型供应商 配置页面,选择 DeepSeek 并添加模型。
  • 模型名称:deepseek r1:8b URL:http://host.docker.internal:11434

  • 确保 Dify 能够通过配置的 API 地址访问 Ollama 提供的 DeepSeek 服务。

四、测试与使用

  • 在 Dify 平台中创建应用,选择 聊天助手 类型,并与 DeepSeek r1 模型进行交互。

  • 如果需要使用私有知识库,可以上传知识库文件并配置相关参数。

通过以上步骤,您可以在 Windows 系统上本地部署 DeepSeek r1,并成功接入 Dify 平台,实现专属的 AI 应用开发。