6.6 Dify低代码平台搭建LLM应用完整实战教程
一、Dify概述
Dify是开源的LLM应用开发平台,支持可视化编排工作流、多模型接入、RAG、Agent等能力,适合快速搭建原型或非开发者使用。《大模型应用开发极简入门》第6章「国内模型适配」将 Dify 平台实战 列为第2版新增:低代码搭建 LLM 应用、可视化编排、部署管理。本节与之一一对应,并提供快速上手步骤与工作流编排示例,便于在无需写代码的前提下完成 RAG、对话与多模型切换。
二、核心功能
| 功能 | 说明 |
|---|---|
| 工作流编排 | 拖拽式编排提示、检索、条件分支等节点 |
| 多模型 | 支持OpenAI、DeepSeek、本地模型等 |
| RAG | 文档上传、分块、检索 |
| Agent | 工具调用、多步推理 |
三、快速上手
- 部署Dify(Docker或云服务)
- 配置API Key(OpenAI或国内模型)
- 创建应用 → 选择工作流或聊天助手
- 编排节点:输入→检索→LLM→输出
- 发布并获取API或嵌入链接
四、与《大模型应用开发极简入门》6.4 节的对应
本书第6章「国内模型适配」中,Dify 平台实战 被列为第2版新增:低代码搭建 LLM 应用、可视化编排、部署管理。本节与之一一对应:Dify 概述对应「低代码搭建」;工作流编排、多模型、RAG、Agent 对应「可视化编排」与能力覆盖;部署与发布对应「部署管理」。书中建议在需要快速验证或给非技术人员使用时采用此类平台,本节提供完整上手步骤与编排示例。
五、工作流编排示例
5.1 简单RAG流程
- 开始节点 → 用户输入
- 知识库检索节点 → 根据输入检索
- LLM节点 → 将检索结果+问题送入模型
- 结束节点 → 输出回答
5.2 条件分支
可根据检索结果是否为空、用户意图等设置分支,空时提示"未找到相关文档",非空时调用LLM。
5.3 变量与引用
节点间通过变量传递数据。如检索节点的输出变量为context,LLM节点的输入可引用{{context}}。
六、部署与发布
- 支持Docker部署,可自建或使用云服务
- 发布后生成API端点或嵌入链接,供前端调用
- 可配置多模型、多知识库,按应用切换
七、适用场景与边界
- 适合:快速原型、内部工具、运营/产品自助搭建、多模型与多知识库切换。
- 边界:复杂逻辑与定制化需求仍可能需代码扩展;大规模与高并发需关注 Dify 的部署与资源规划。与书中「国内模型适配」与「低代码」的定位一致。
八、Dify 与自研代码的边界(何时用 Dify、何时写代码)
Dify 适合:快速验证想法、内部运营/产品自助搭建、多模型与多知识库切换、对交付速度要求高而逻辑相对标准的场景。当出现以下情况时,可考虑以自研代码为主、Dify 为辅或不用 Dify:(1)需要复杂分支、循环或与内部系统深度集成(如 ERP、权限中台);(2)对延迟、吞吐或成本有极严格要求,需自定义缓存、路由或模型调度;(3)希望全链路代码可控、便于做安全审计或定制化部署。书中 6.4 节将 Dify 列为「国内模型适配」与「低代码搭建」的一种方式,并未要求所有项目都用 Dify;本节明确其适用边界,便于读者在「用平台」与「写代码」之间做出合理选择。与 6.5 节结合时,可先在 Dify 中用国内模型跑通流程,再视需要将部分逻辑迁回自研服务。
九、与 6.5 节国内模型适配的配合
6.5 节讲解了 DeepSeek 等国内模型的 API 调用与统一封装。Dify 支持配置多个模型来源(OpenAI 兼容、DeepSeek、本地等),可在同一平台内切换模型而无需改代码。因此典型用法是:在 Dify 中配置好 DeepSeek 的 base_url 与 API Key,在工作流中选用「DeepSeek」作为 LLM 节点,即可在低代码层面使用国内模型。书中 6.4 节将「国内模型适配」与「Dify 平台实战」并列,本节与 6.5 节即分别对应这两部分,二者结合可覆盖「API 调用 + 低代码搭建」的完整国内落地路径。若团队已按 6.5 节配置了 DeepSeek 等国内模型的 API,在 Dify 中只需在「模型」配置里添加对应 provider 与 Key,即可在工作流中选用,无需改任何节点逻辑,适合作为国内落地的首选试验方式。
十、小结
Dify 适合快速验证想法、搭建内部工具或给非技术人员使用。掌握工作流编排与模型配置,即可在低代码层面构建 LLM 应用。第六章完结,专栏课程全部完成。建议先按本节「快速上手」在本地或云上部署一次 Dify,完成一个简单 RAG 或聊天应用,再根据业务需求扩展工作流节点与知识库,形成从学习到落地的闭环。
十一、与 6.1 融合方案、6.2 部署、6.5 国内模型的衔接
6.1 节融合方案:Dify 的工作流可编排「检索 → LLM」「条件分支 → 工具」等,对应 6.1 的提示工程 + RAG + Agent 组合;适合先在 Dify 中验证融合逻辑,再视需要将部分流程迁回自研代码。6.2 节部署:Dify 支持 Docker 与云部署,发布后的 API 需按 6.2 做网关鉴权、限流与监控;Dify 自带的用量统计可作成本参考,大规模时仍建议接入统一监控。6.5 节国内模型:在 Dify 中配置 DeepSeek 等国内模型后,工作流中的 LLM 节点可直接选用,无需改节点逻辑,与 6.5 的 API 适配形成「API 调用 + 低代码搭建」的完整国内落地路径。书中 6.4「国内模型适配」中的 Dify 与 6.1、6.2、6.5 的衔接点在本节已全部打通。
十二、小结(复述)
Dify 对应书中 6.4 节「Dify 平台实战」:低代码搭建、可视化编排、部署管理。掌握工作流编排、多模型与 RAG/Agent 节点,即可在无代码或低代码下构建 LLM 应用;与 6.5 国内模型配合可完成国内环境从 API 到应用的完整链路。第六章与全书专栏课程至此完结。
十三、Dify 工作流与书中能力的对应
| 书中能力 | Dify 中的实现 |
|---|---|
| 提示工程 | 工作流中的「提示词」节点、LLM 节点的系统提示 |
| RAG | 知识库节点 + 检索节点 + LLM 节点(上下文注入) |
| Agent | Agent 节点 + 工具配置 |
| 多模型 | 在「模型」配置中添加多个 provider(OpenAI、DeepSeek 等),节点中选用 |
与 6.1 节融合方案一致:在 Dify 中可编排「条件分支 → 检索 → LLM」或「Agent → 工具」等流程,适合快速验证融合逻辑后再视需要迁回自研代码。
十四、适用场景与边界(复述)
Dify 适合:快速原型、内部工具、运营/产品自助搭建、多模型与多知识库切换。当需要复杂分支、与内部系统深度集成、或对延迟与成本有极严格要求时,可考虑以自研代码为主。与 6.5 节结合时,在 Dify 中配置 DeepSeek 等国内模型后,工作流中的 LLM 节点可直接选用,无需改节点逻辑,形成「API 调用 + 低代码搭建」的完整国内落地路径。书中 6.4「国内模型适配」中的 Dify 与 6.1、6.2、6.5 的衔接点在本节已全部打通。
第六章完结。专栏课程全部完成。