6.6 Dify低代码平台搭建LLM应用完整实战教程

2 阅读7分钟

6.6 Dify低代码平台搭建LLM应用完整实战教程

一、Dify概述

Dify是开源的LLM应用开发平台,支持可视化编排工作流、多模型接入RAGAgent等能力,适合快速搭建原型或非开发者使用。《大模型应用开发极简入门》第6章「国内模型适配」将 Dify 平台实战 列为第2版新增:低代码搭建 LLM 应用、可视化编排、部署管理。本节与之一一对应,并提供快速上手步骤与工作流编排示例,便于在无需写代码的前提下完成 RAG、对话与多模型切换。


二、核心功能

功能说明
工作流编排拖拽式编排提示、检索、条件分支等节点
多模型支持OpenAI、DeepSeek、本地模型等
RAG文档上传、分块、检索
Agent工具调用、多步推理

三、快速上手

  1. 部署Dify(Docker或云服务)
  2. 配置API Key(OpenAI或国内模型)
  3. 创建应用 → 选择工作流或聊天助手
  4. 编排节点:输入→检索→LLM→输出
  5. 发布并获取API或嵌入链接

四、与《大模型应用开发极简入门》6.4 节的对应

本书第6章「国内模型适配」中,Dify 平台实战 被列为第2版新增:低代码搭建 LLM 应用、可视化编排、部署管理。本节与之一一对应:Dify 概述对应「低代码搭建」;工作流编排、多模型、RAG、Agent 对应「可视化编排」与能力覆盖;部署与发布对应「部署管理」。书中建议在需要快速验证或给非技术人员使用时采用此类平台,本节提供完整上手步骤与编排示例。


五、工作流编排示例

5.1 简单RAG流程

  1. 开始节点 → 用户输入
  2. 知识库检索节点 → 根据输入检索
  3. LLM节点 → 将检索结果+问题送入模型
  4. 结束节点 → 输出回答

5.2 条件分支

可根据检索结果是否为空、用户意图等设置分支,空时提示"未找到相关文档",非空时调用LLM。

5.3 变量与引用

节点间通过变量传递数据。如检索节点的输出变量为context,LLM节点的输入可引用{{context}}


六、部署与发布

  • 支持Docker部署,可自建或使用云服务
  • 发布后生成API端点或嵌入链接,供前端调用
  • 可配置多模型、多知识库,按应用切换

七、适用场景与边界

  • 适合:快速原型、内部工具、运营/产品自助搭建、多模型与多知识库切换。
  • 边界:复杂逻辑与定制化需求仍可能需代码扩展;大规模与高并发需关注 Dify 的部署与资源规划。与书中「国内模型适配」与「低代码」的定位一致。

八、Dify 与自研代码的边界(何时用 Dify、何时写代码)

Dify 适合:快速验证想法、内部运营/产品自助搭建、多模型与多知识库切换、对交付速度要求高而逻辑相对标准的场景。当出现以下情况时,可考虑以自研代码为主、Dify 为辅或不用 Dify:(1)需要复杂分支、循环或与内部系统深度集成(如 ERP、权限中台);(2)对延迟、吞吐或成本有极严格要求,需自定义缓存、路由或模型调度;(3)希望全链路代码可控、便于做安全审计或定制化部署。书中 6.4 节将 Dify 列为「国内模型适配」与「低代码搭建」的一种方式,并未要求所有项目都用 Dify;本节明确其适用边界,便于读者在「用平台」与「写代码」之间做出合理选择。与 6.5 节结合时,可先在 Dify 中用国内模型跑通流程,再视需要将部分逻辑迁回自研服务。


九、与 6.5 节国内模型适配的配合

6.5 节讲解了 DeepSeek 等国内模型的 API 调用与统一封装。Dify 支持配置多个模型来源(OpenAI 兼容、DeepSeek、本地等),可在同一平台内切换模型而无需改代码。因此典型用法是:在 Dify 中配置好 DeepSeek 的 base_url 与 API Key,在工作流中选用「DeepSeek」作为 LLM 节点,即可在低代码层面使用国内模型。书中 6.4 节将「国内模型适配」与「Dify 平台实战」并列,本节与 6.5 节即分别对应这两部分,二者结合可覆盖「API 调用 + 低代码搭建」的完整国内落地路径。若团队已按 6.5 节配置了 DeepSeek 等国内模型的 API,在 Dify 中只需在「模型」配置里添加对应 provider 与 Key,即可在工作流中选用,无需改任何节点逻辑,适合作为国内落地的首选试验方式。


十、小结

Dify 适合快速验证想法、搭建内部工具或给非技术人员使用。掌握工作流编排与模型配置,即可在低代码层面构建 LLM 应用。第六章完结,专栏课程全部完成。建议先按本节「快速上手」在本地或云上部署一次 Dify,完成一个简单 RAG 或聊天应用,再根据业务需求扩展工作流节点与知识库,形成从学习到落地的闭环。


十一、与 6.1 融合方案、6.2 部署、6.5 国内模型的衔接

6.1 节融合方案:Dify 的工作流可编排「检索 → LLM」「条件分支 → 工具」等,对应 6.1 的提示工程 + RAG + Agent 组合;适合先在 Dify 中验证融合逻辑,再视需要将部分流程迁回自研代码。6.2 节部署:Dify 支持 Docker 与云部署,发布后的 API 需按 6.2 做网关鉴权、限流与监控;Dify 自带的用量统计可作成本参考,大规模时仍建议接入统一监控。6.5 节国内模型:在 Dify 中配置 DeepSeek 等国内模型后,工作流中的 LLM 节点可直接选用,无需改节点逻辑,与 6.5 的 API 适配形成「API 调用 + 低代码搭建」的完整国内落地路径。书中 6.4「国内模型适配」中的 Dify 与 6.1、6.2、6.5 的衔接点在本节已全部打通。


十二、小结(复述)

Dify 对应书中 6.4 节「Dify 平台实战」:低代码搭建、可视化编排、部署管理。掌握工作流编排、多模型与 RAG/Agent 节点,即可在无代码或低代码下构建 LLM 应用;与 6.5 国内模型配合可完成国内环境从 API 到应用的完整链路。第六章与全书专栏课程至此完结。


十三、Dify 工作流与书中能力的对应

书中能力Dify 中的实现
提示工程工作流中的「提示词」节点、LLM 节点的系统提示
RAG知识库节点 + 检索节点 + LLM 节点(上下文注入)
AgentAgent 节点 + 工具配置
多模型在「模型」配置中添加多个 provider(OpenAI、DeepSeek 等),节点中选用

与 6.1 节融合方案一致:在 Dify 中可编排「条件分支 → 检索 → LLM」或「Agent → 工具」等流程,适合快速验证融合逻辑后再视需要迁回自研代码。


十四、适用场景与边界(复述)

Dify 适合:快速原型、内部工具、运营/产品自助搭建、多模型与多知识库切换。当需要复杂分支、与内部系统深度集成、或对延迟与成本有极严格要求时,可考虑以自研代码为主。与 6.5 节结合时,在 Dify 中配置 DeepSeek 等国内模型后,工作流中的 LLM 节点可直接选用,无需改节点逻辑,形成「API 调用 + 低代码搭建」的完整国内落地路径。书中 6.4「国内模型适配」中的 Dify 与 6.1、6.2、6.5 的衔接点在本节已全部打通。


第六章完结。专栏课程全部完成。