Dify入门指南(2):5 分钟部署 Dify:云服务 vs 本地 Docker

147 阅读2分钟

无需算法团队,无需 GPU 服务器,只需一台普通电脑或云账号,5 分钟即可搭建企业级 AI 开发平台。本文手把手对比 云服务直装本地 Docker 部署 两种方案,附避坑指南与性能实测!

一、云服务部署:3 分钟极速开箱

适合人群:快速验证原型 · 中小企业轻量化使用
核心优势:零运维、免费用量额度、自动升级

操作步骤:

  1. 注册登录
    👉 访问 Dify 官网 → 点击「免费开始」→ 用邮箱/GitHub 账号注册国内用户推荐选择 亚太节点(新加坡/东京),延迟更低
  2. 创建应用

**

**3. 配置模型

免费额度:新用户赠送 $1 的 GPT-3.5 调用额度

进入「模型供应商」→ 选择 OpenAI/Claude/通义千问
填入 API Key(云服务自动代理请求,无需暴露 Key 给客户端

4.立即体验

# 通过 API 测试

curl -X POST "api.dify.ai/v1/chat-mes…" \
-H "Authorization: Bearer YOUR_API_KEY" \
-d '{"inputs": {}, "query": "你好"}'

进入应用 → 点击「发布」→ 通过 Web/API 接入

💡 云服务优缺点:

二、本地 Docker 部署:5 分钟构建私有环境

适合人群:金融/医疗等强合规场景 · 需要连接内网系统
核心优势:数据 100% 私有化 · 自定义 GPU 加速

操作步骤:

  1. **环境准备
    **最低配置:Linux/MacOS/Windows WSL2 · 4核 CPU · 8GB 内存 · 20GB 磁盘
    安装 Docker 及 Docker Compose

  2. 一键启动

    # 下载官方 compose 文件

    curl -O raw.githubusercontent.com/langgenius/…

    # 启动服务(首次启动自动拉镜像)

    docker-compose up -d

    # 查看日志(出现 Listening at http://0.0.0.0:80 即成功)

    docker-compose logs -f

  3. **访问控制台
    **浏览器打开 http://localhost(默认账号:admin@dify.ai,密码:difyai.com)
    立即修改密码! → 进入「系统设置」重置

  4. 配置本地模型(关键步骤)

    # 编辑 docker-compose.yaml,添加 Ollama 本地模型服务

    services:
    ollama:
    image:ollama/ollama
    ports:
    -"11434:11434"
    volumes:
    -ollama:/root/.ollama

    # 启动 Llama3 中文优化版

    docker exec -it dify-ollama ollama run qwen:4b-chat

    # Dify 控制台添加模型

    模型类型:OpenAI 兼容
    端点:http://ollama:11434/v1
    模型名称:qwen:4b-chat

🔧 私有化部署调优技巧

三、方案对比:按需选择最优解

实测数据:本地部署运行 Qwen-4B 模型,单条查询响应 <2s(RTX 3060 GPU)

四、避坑指南:高频问题解决方案

  1. 镜像拉取失败

    # 替换国内镜像源
    sed -i 's/ghcr.io/mirror.ghcr.io/g' docker-compose.yaml
    
  2. 端口冲突(本地 80 端口被占)

    # 修改 compose 文件端口映射 
    services:  dify-web:  
    ports:  - "8080:80" # 改为 8080 端口
    
  3. **知识库上传失败
    **检查文件:仅支持 PDF/TXT/Markdown/Word
    内存不足:增加 Docker 内存限制 docker-compose.yml → mem_limit: 4096m

五、总结:两条路径,同一目标

  • 云服务是快速验证的“轻骑兵”,适合敏捷迭代;
  • 本地 Docker 是数据自主的“堡垒机”,满足合规刚需。

无论选择哪种方式,Dify 都大幅降低了 AI 应用的门槛。