五、Dify 实战:RAG 与工作流企业级应用

0 阅读38分钟

1. Dify 能力全开:低代码智能神器简介

1.1 🎯 学习目标

  • 认识 Dify 平台及其官网入口:dify.ai
  • 理解 Dify 的核心定位与六大能力模块
  • 掌握 Dify 在不同场景下的典型应用

1.2 📚 什么是 Dify?

Dify 是一款开源的 LLM 应用开发平台,融合 Backend‑as‑a‑Service(BaaS)与 LLMOps 思想,提供:

  • 可视化 Prompt 编排:拖拽式编辑,无需写一行代码
  • 高质量 RAG 引擎:内置向量检索,文档召回更高效
  • 灵活 Agent 框架:用“角色+目标+约束”快速定义智能体
  • 低代码工作流:跨模型、跨工具,一键串联业务流程
  • 即用界面 & API:标准 RESTful 接口,轻松接入现有系统

官网:dify.ai

1.3 💻 Dify 内核解析

  • 平台定位:为什么选择 Dify 而非底层 SDK
  • 六大能力
    1. 多模型支持
    2. 可视化 Prompt 编排
    3. RAG 向量检索
    4. Agent 智能体
    5. 低代码工作流
    6. 界面与 API
  • 应用场景
    • 最低成本验证创意和 MVP
    • 将 AI 无缝接入业务系统
    • 私有化自部署,实现数据和模型全托管
    • 零门槛体验 Prompt 工程与 Agent 编排

1.4 ❓ 常见问题

1.4.1 Q:Dify 与 LangChain 等底层库有何本质区别?

A:LangChain 是“零件库”,需自行拼装、运维;Dify 是“生产级平台”,集可视化、运维、模型管理与多模型接入于一体。

1.4.2 Q:如何在本地私有化部署 Dify?

A:Dify 完全开源,可使用 Docker Compose 或源码方式自部署,保证数据和模型都在自己掌控之中。如果不希望自己部署,也可以在官网注册 Dify Cloud 账号在线进行使用。

2. 点击即用:云端账号注册一站速通

2.1 🎯 学习目标

  • 快速完成 Dify 云端账号注册与登录
  • 熟悉登录后首页的主要界面布局

2.2 📚 前置条件

  • 准备一个可用的 GitHub 或 Google 账号
  • 能正常访问 cloud.dify.ai

2.3 📝 操作步骤

  1. 访问云端入口 打开浏览器,输入 cloud.dify.ai 并回车。
  2. 选择第三方登录
    • 点击“使用 GitHub 登录”或“使用 Google 登录”按钮
    • 在弹出的授权窗口中,确认授权即可进入 Dify
    • 你也可以使用你自己的邮箱注册登录
  3. 了解登录后首页布局
    • 顶部导航
      • 搜索框:快速查找应用或知识库
      • “工作室”、“知识库”、“工具”按钮:切换功能区
      • 用户头像:查看账户设置或登出
    • 标签过滤栏
      • “全部”、“工作流”、“Chatflow”、“聊天助手”、“Agent”、“文本生成”
      • 点击任意标签,可只看对应类型的项目
    • 创建应用卡片
      • “创建空白应用”、“从应用模板创建”、“导入 DSL 文件”三种入口
    • 已创建应用列表
      • 以卡片形式展示你所有项目,显示名称、最后编辑时间、简要描述

3. Dify本地部署:Docker Compose 来搞定

3.1 🎯 学习目标

  • 在本地通过 Docker Compose 一键部署 Dify 社区版
  • 启动所有服务容器并确认运行状态
  • 访问本地界面,验证部署成功

3.2 📚 前置条件

  • 已安装 Docker EngineDocker Compose
  • CPU ≥ 2 核内存 ≥ 4 GiB
  • 网络可访问 GitHub
  • 安装好 Git git-scm.com/downloads

3.2.1 🔗 Docker 下载及安装地址

3.3 📝 操作步骤

  1. 克隆源码仓库

    git clone https://github.com/langgenius/dify.git --branch 版本号
    

    请根据最新发行版本号替换,比如 1.6.0

  2. 进入 Docker 配置目录

    cd dify/docker
    
  3. 复制环境变量模板

    cp .env.example .env
    

    可按需调整 .env 中的端口、存储路径等参数,默认配置即可用于本地测试。

  4. 一键启动容器

    docker compose up -d
    

    使用 Docker Compose V2 语法,后台启动所有服务。

  5. 查看容器状态

    docker compose ps
    

    确认 apiwebworkerdbredisnginxweaviate 等容器都处于 Up 状态。

3.4 🖥️ 验证部署

  • 打开浏览器访问:http://127.0.0.1

  • 如果你在.env文件中配置了新的nginx端口,请使用新的端口来访问

  • 你应能看到 Dify 登录/安装页面

  • 若出现错误,可执行:

    docker compose logs -f
    

    查看日志流,定位启动异常

至此,本地 Dify 社区版已成功部署并启动。

4. 一键接通大模型:LLM 配置全流程

4.1 🎯 学习目标

  • 了解 Dify “模型供应商(Model Providers)”机制,并能在设置页新增主流大模型
  • 学会设置默认推理模型、Embedding 模型与 Rerank 模型,为后续 RAG / Agent 场景打下基础

4.2 📚 前置条件

项目说明
Dify 部署已完成云端注册或本地 Docker Compose 部署,能正常登录控制台
API 凭证至少准备一份有效的模型 API Key
网络可访问对应模型供应商的 API 域名

4.3 📝 操作步骤

4.3.1 进入「模型供应商」

  1. 登录 Dify 控制台,点击左侧 设置 → 模型供应商 (Model Providers)
  2. 页面展示当前已接入的所有模型及其调用统计,为后续管理提供统一入口

4.3.2 添加 LLM 厂商

操作:找到对应的模型供应商,点击安装按钮进行安装即可。安装完成后,配置该厂商的API KEY。

4.3.3 设定默认模型

  • 点击系统模型设置,选择每种类型的默认模型。

完成以上步骤后,你已成功将所需大模型接入 Dify,后续即可在应用、工作流与知识库中自由调用。

5. 知识库秒上云:文档上传 & 管理入门

5.1 🎯 学习目标

  • 在 Dify 云端或本地实例中新建知识库
  • 一键上传本地文档并完成基础管理
  • 进行文档增删改查及权限配置

5.2 📚 前置条件

  • 已完成 Dify 登录,进入“知识库”模块
  • 准备好支持格式(PDF、DOCX、Markdown、TXT)文档
  • 拥有知识库操作权限

5.3 📝 操作步骤

第一步:创建知识库

  • 点击顶部导航 “知识库” → “创建知识库”
  • 可以直接导入文件或者创建一个空的知识库

第二步:上传文档

  • 进入“文档”页签,点击“添加文件”
  • 拖拽或选择本地文件,支持批量上传
  • 等待系统完成文档清洗与索引

第三步:文档管理

  • 在文档列表中,点击“更多”可进行归档或删除
  • 使用搜索框快速定位目标文档
  • 批量操作:选中多份文档执行统一操作

第四步:权限设置

  • 进入“设置” → “可见权限”
  • 分配“只有我”/“部分团队成员”/“所有团队成员”角色
  • 确保团队成员按需访问相应知识库

5.4 ❓ 常见问题

  • 上传失败:检查文件大小限制及网络状态
  • 文档不可见:确认是否具有查看权限

6. 分段还是整篇?知识库切片与检索参数秘籍

6.1 🎯 学习目标

  • 理解「切片(Chunking)」在知识库中的作用与工作流程
  • 掌握通用 General 与父子 Parent‑Child 两种分段模式的适用场景及优缺点
  • 熟悉 Chunk Size、Overlap、Top K、Rerank 等核心检索参数,并能根据业务需求进行调优
  • 了解高质量 High‑Quality vs 经济型 Economical 两种索引方式的差异与选型思路

6.2 核心概念快速扫盲

概念作用典型影响
Chunking将长文本拆成小块,保证语义完整又不过度冗长提升召回精准度与回答上下文连贯性
Chunk Size每块最大 Token 数过大易超上下文窗口;过小则割裂语义
Chunk Overlap相邻块重叠 Token 数保留跨段关联,降低“断句”风险
Top K检索返回前 K 条片段控制上下文注入量,平衡成本与信息密度
Rerank二次排序模型重新评估相关性,过滤干扰片段

6.3 切片工作流程

第一步:文本清洗 去除空行、脚注、无意义符号后得到纯净正文

第二步:选择 Chunk Mode 在创建知识库或后期设置中决定 通用分段 / 父子分段

第三步:预览分段 系统实时展示切片示例,便于微调参数

第四步:向量化索引 片段送入 Embedding 模型生成向量并入库

第五步:检索测试 通过 Retrieval Test(召回测试)查看命中片段及相似度分数,迭代优化


6.4 两大分段模式对比

维度通用 General父子 Parent‑Child
适用文档新闻、博客、报告等扁平结构API 手册、产品说明书等层级分明文档
粒度均匀切块,简单高效保留大纲层级,语义上下文更完整
优势处理速度快,占用存储低提问准确率高,减少片段碎片化
劣势复杂层级信息易丢失向量量增大,索引成本上升
调优要点优先增大 Chunk Size适当缩小 Chunk Size,增大 Overlap

实战建议

  • 文档结构简单 → 先用 General;若问答断句明显,再尝试 Parent‑Child
  • 复杂目录/代码示例多 → 直接选择 Parent‑Child 并调大 Overlap

父区块(Parent-chunk)保持较大的文本单位(如段落),提供丰富的上下文信息;子区块(Child-chunk)则是较小的文本单位(如句子),用于精确检索。系统首先通过子区块进行精确检索以确保相关性,然后获取对应的父区块来补充上下文信息,从而在生成响应时既保证准确性又能提供完整的背景信息。

3e6820c10bd7c5f6884930e3a14e7b66

6.4.1 参数调优清单

  • Chunk Size:512 → 768 → 1024,逐级调大直至不触发窗口溢出
  • Overlap:默认为 50,若出现“上下文割裂”可提升至 100‑150,建议设置为分段长度 Tokens 数的 10-25%

6.5 索引方式与检索参数

6.5.1 高质量 High‑Quality vs 经济型 Economical

方案特点典型场景
高质量多向量、多索引,召回准确度高专业知识库、客服 FAQ、财务报告
经济型单向量、低存储,成本友好海量新闻素材、社媒评论、日志数据

6.5.2 参数调优清单

  • Top K:业务问答场景推荐 3‑5;分析/摘要类可增至 10
  • Rerank:启用后可显著降低离题片段,但会增加延迟与成本

6.6 常见问题(FAQ)

第一问:分段后 Q&A 仍答非所问 检查是否使用了 General 处理层级文档;改用 Parent‑Child 并增大 Overlap

第二问:索引体积过大 尝试经济型索引或压缩 Embedding 维度,定期清理无用文档

第三问:检索速度慢 减小 Top K,必要时提升硬件配置

第四问:同义词召回差 选用更强大的 Embedding 模型或启用 Rerank 模块提高相关性


掌握上述切片与检索参数秘籍,你就能在效率与准确性之间找到最佳平衡,为后续 RAG 与 Agent 场景奠定坚实基础。

7. Embedding 魔法揭秘:向量化原理 & 场景

7.1 🎯 学习目标

  • 快速理解 “Embedding” 是什么
  • 明白为什么知识库检索离不开向量化
  • 认识几款开箱即用的 Embedding 模型
  • 掌握在实际项目中怎样“调味”参数,让检索更准

7.2 一句话搞懂 Embedding

Embedding的概念:将离散文本映射为可计算的高维向量。

就像给每句话配上一张“语义身份证”。 把文字变成一串数字坐标,两串坐标计算距离,数字越近,意思越像,越相关。

比如存储的文本为AI Agent,转换成向量坐标为 [1,2,3...]

要查询的文本AI,转换成向量坐标为 [1, 2, 0...]

通过计算坐标之间的距离,距离最近的为最相关的结果,这样可以快速完成内容快速检索。


7.3 为什么要做 Embedding?

  • 关键词检索局限:只看字面,遇到同义词或口误就找不到答案
  • 向量检索优势:看“意思”而不是“拼写”,同义词、长句、错别字都能戳中要害
  • 零代码体验:现成模型(如 BAAI/bge-m3、OpenAI text-embedding-3) 一键接入,不用自己训练(BAAI 为智源研究院)

7.4 Embedding 工作流程

Embedding 工作流程 - visual selection


7.5 开箱即用热门模型

模型维度亮点适合场景
BGE‑m3 (中英)768免费、效果佳、中文友好国内多语言检索
OpenAI text-embedding-31536准确度高、更新快专业客服、全球化应用
MiniLM384轻量级、算力要求低移动端、本地部署

选模型就像选相机:像素高≠最好,用得顺手、成本合适才最重要


7.6 应用场景小抄

  1. 智能问答:问题 → 相似文档 → LLM 生成带引用答案
  2. 商品推荐:把用户历史和商品描述都向量化,“离你最近”即为推荐
  3. 内容聚类:将上万篇文章按向量自动分组,秒出热点话题
  4. 语义去重:向量间距极小的文本大概率是“同一事”,一键剔除重复

7.7 调味小贴士

调味点建议做法
维度300‑800 已够用,越高越耗存储
Top K问答模式 3‑5;摘要/推荐 10‑20
阈值相似度 < 0.2 可视为“不相关”
缓存高频问题先缓存结果,提速 10× 以上

7.8 ❓ FAQ

  1. 模型要自己训练吗? 不需要,直接用社区或商业模型即可满足 90% 场景。
  2. 中文效果不好怎么办? 试试 BGE 系列或其他中文优化模型。
  3. 数据更新后要重算吗? 是的,新文本需重新向量化并写入库中,否则检索不到。

8. RAG 时代来了:检索增强背后的逻辑

8.1 🎯 学习目标

  • 弄清 RAG(Retrieval‑Augmented Generation) 的核心原理
  • 理解“检索 + 生成”双引擎如何解决 LLM 幻觉与信息时效问题
  • 掌握 RAG 流水线的关键组件:Retriever、Reranker、Generator
  • 了解 Top K、Max Tokens、温度等常用调优参数及取值建议
  • 识别实现 RAG 时常见的坑点与优化思路

8.2 RAG 一句话公式

RAG = 先“查资料”,再“写答案” LLM 不再凭记忆胡猜,而是在回答前检索最新可信的外部内容,并把检索结果拼进 Prompt,一并喂给模型生成。


8.3 组成三件套

角色作用常用技术 / 组件
Retriever语义检索,找出与问题最相关的“片段”向量库、Top K
Reranker对检索结果二次排序,提升相关度学术版 BGE‑Reranker、Cross‑Encoder
Generator依据问题 + 片段生成回答GPT‑4o、Gemini、Claude、DeepSeek 等 LLM

流水线:用户提问 → Retriever 返回候选片段 → Reranker 精排 → 将 Top N 片段与问题一起打包 → 送往 Generator → 最终答案

RAG流程


8.4 为什么 RAG 更靠谱?

  • 实时性:检索外部最新文档,突破 LLM 训练数据时效
  • 可引用:回答可附带原文片段,提升可信度与可追溯性
  • 控幻觉:有外部事实支撑,降低模型胡编概率
  • 节省成本:无需频繁微调大模型,通过更新知识库即可迭代

8.5 关键调优参数

参数含义 / 典型值调优思路
Top K检索候选片段数(3‑8)问答场景 3‑5;分析场景 6‑8
Max Tokens给片段的最大长度片段长 → 语境足;过长占用上下文
温度(T)输出随机度(0‑1)问答 0‑0.3;创意写作 0.7‑0.9
Rerank 阈值保留片段的最低分低阈值召回宽,高阈值更精准

8.6 实战建议

  1. Prompt 模板

    • 问题区 + “请基于以下片段回答” + 片段区 + 回答格式要求
    • 片段区可用标题 + 摘要或全文,编号方便引用
  2. 片段格式

    <doc id=1>
    …内容…
    </doc>
    

    这类分隔便于模型分辨不同来源,减少混淆

  3. 多策略检索

    • 关键词过滤 + 向量检索组合
    • 向量召回 Top K=8,关键词再过滤 → Top K=4
  4. 缓存与批处理

    • 高频问题缓存检索结果与答案
    • 对长对话启用“滚动窗口”,避免上下文超长

8.7 典型应用场景

场景说明
企业知识库问答员工提问 → 检索公司文档 → 准确溯源回答
金融数据分析实时抓取财报片段 → LLM 生成分析报告
法律条文检索问题 → 检索法规条款 → 生成带条款引用的意见
多语言客服用户语言 → 检索本地语言文档 → 翻译回答

8.8 ❓ 常见问题 (FAQ)

  1. 检索到的片段不相关怎么办? 调低 Chunk Size,增大 Overlap;或启用更强的语义 Reranker。
  2. 上下文超长导致截断? 缩小 Top K,精简片段文本,用摘要代替全文。
  3. 模型仍旧“编故事”? 调低温度,强制回答“基于片段”;或在 Prompt 中加入“若找不到答案,请回复‘暂无相关信息’”。
  4. 查询慢? 启用 HNSW 索引、内存缓存;对超大库尝试分区检索并行化。

掌握了 RAG 的检索增强逻辑,你就能让大模型说有根有据的话,为智能问答、数据分析等业务场景注入最新、最可信的事实能力。

9. 召回效果大体检:分段质量评估上手

9.1 🎯 学习目标

  • 找到并打开 召回测试 面板
  • 用典型问题快速评估知识库的召回质量
  • 读懂分数与片段列表,判断分段效果好坏
  • 记录测试结果,为下一步调参与重索引提供依据

9.2 入口与界面

区域位置功能
召回测试文档侧边栏 → 召回测试打开评估面板
源文本框左侧大输入框输入待测试问题(≤ 200 字符)
测试按钮文本框右下角 测试触发检索与评分
片段列表右侧展示 Top K 片段、来源文件、相似度分数
历史记录底部 记录自动保存每次测试的问题与时间

小贴士:面板支持实时改写问题再测,无需重复打开。


9.3 三步评估流程

第一步:输入典型问题 选择真实用户常问、覆盖核心业务的句子,例如「公司有哪些福利」。

第二步:点击测试 系统秒级返回最相关的若干片段,并按相似度高低排序。

第三步:观察分数与内容

  • Score ≥ 0.7:高度相关
  • 0.4 ≤ Score < 0.7:中等相关
  • Score < 0.4:弱相关或误召回

记录分数、片段质量与文件来源,为后续调整参数提供依据。


9.4 结果解读要点

现象可能原因建议动作
分数整体偏低Chunk 太大 / 模式不匹配适当缩小 Chunk Size 或切换分段模式
片段缺关键信息Overlap 过小将 Overlap 提高至 10‑25 % 区间
列表片段重复Overlap 过大下调 Overlap,或启用去重
列表为空文件未索引完 / 文档语言不符检查索引状态,分库存放不同语言

9.5 测试记录与复盘

  • 多场景提问:覆盖 FAQ、操作指南、政策制度等不同主题
  • 截图或导出结果:便于按分段参数对照前后变化
  • 迭代节奏:推荐「调参 → 重索引 → 再测」两轮即可稳定

9.6 ❓ FAQ

  1. 测试按钮灰色不可点? 检查是否超出 200 字符或文本框为空。
  2. 分数波动大? 避免过短或过长问题句,保持结构一致做对比。
  3. 片段显示乱码? 原文编码异常,重新上传或转为 UTF‑8。

通过召回测试,你可以用最直观的方式评估知识库的分段与检索质量,为后续调参奠定数据基础,让 RAG 回答更准确、更可靠。

10. 智能切片+精准召回:命中率翻倍秘籍

10.1 🎯 学习目标

  • 学会为知识库 预处理与标记 文档,让系统“一眼识段”
  • 掌握 硬分隔软分隔 两大技巧,避免断句或漏召回
  • 知道何时 合并、何时 拆分,让每段既完整又不过长
  • 熟悉重索引小流程,把调优反馈迅速闭环

10.2 课前自检

检查项目标状态
文档源格式Markdown / Docx / 纯文本优先,避免扫描 PDF
语言一致性同一知识库尽量单语种,双语分库
重复段落删除页眉页脚、版权说明等高频噪声
表格 & 图片转成纯文本描述或附注,方便向量化

10.3 基础清洗:让内容“干净”上桌

第一步:统一编码 全部转 UTF‑8,防止乱码

第二步:去除杂质 页码、脚注、广告条幅全部删掉

第三步:合并短句 一句话不到 30 字就合到上一段,避免系统视为噪声

第四步:消歧术语 用“术语表”统一同义词,例如 KPI = 关键绩效指标


10.4 硬分隔:告诉模型“这里必须切”

  • 章节标题 前后留空行或使用 ---,形成天然断点
  • 对 FAQ、条款手册类文档,用 ### 问题 / ### 答案 明确边界
  • 大段表格或代码块,用 三引号 包裹,避免被打碎
  • 对多列表格,可先转纯文本并用 | 分隔,系统更易理解列关系

示例

### 3.2 员工福利
---
公司为正式员工提供以下福利:
1. 五险一金  
2. 年度体检  
3. 

10.5 软分隔:让上下文自然“连起来”

  • Chunk Size 目标:512‑768 tokens,语义足够完整
  • Overlap 建议 10‑25 %:让跨段信息有交集,防止断链
  • 父子模式:大纲清晰的手册、API 文档直接选用,标题‑正文天然父子关系
  • General 模式:新闻、博客类连续文本更高效,Chunk Size 适当放大

10.6 语义加分器:提升命中率的三把钥匙

技巧操作效果
关键词注射在标题或首句加入领域高频关键词检索时更易命中
同义词库在文末附“关键术语对照”捕获多说法提问
元数据标签在文档头加 tags: HR, 福利, 政策供 Hybrid 检索硬过滤

10.7 重索引闭环

第一步:上传 → 召回测试 输入典型问题观察 Score

第二步:记录问题片段 分数低?看是切太碎还是太长

第三步:调整边界/Overlap 改完后点击 重新索引

第四步:再测 目标 Score 稳定 ≥ 0.7


10.8 ❓ FAQ

问题快速解法
切完段子太多?合并短句、增大 Chunk Size 到 1024
同一句多次出现?Overlap 过大,下调到 10 %
命中片段无关?检查是否漏清页眉、脚注等噪声
多语言混检索不准?按语种建独立知识库

通过「干净内容 + 清晰边界 + 适度重叠」三步法,你的知识库切片将更精准,召回得分自然翻倍,为后续 RAG 问答打下坚实基础。

11. 企业智囊团:属于你的知识库问答机器人

11.1 🎯 学习目标

  • 在 Dify 工作室 中创建一款聊天助手
  • 将已上传的知识库与聊天助手绑定
  • 通过调试面板验证问答效果并发布

11.2 创建聊天助手

第一步:进入创建界面 进入 工作室 → 创建空白应用 → 聊天助手

第二步:填写基础信息 输入 名称描述,选择一张头像(可选)

第三步:点击创建应用 点击 创建 创建应用


11.3 绑定知识库

第一步:进入知识库配置区 在左侧导航找到 知识库 区块,点击 + 添加

第二步:选择知识库 从下拉列表中选择之前上传并调优好的知识库

第三步:支持多库并行 如需多库并行,可重复添加

第四步:确认绑定 确认后点击添加按钮,知识库名称将显示在配置面板中


11.4 设计系统提示词

  • 在 “提示词” 编辑框写入 System Prompt,示例:

    你是企业内部的智能顾问,只能基于知识库回答。
    若知识库没有相关内容,请回答“暂时未找到相关信息”。
    
  • 保持语气正式、简洁,避免过度花哨的表达


11.5 调试与预览

面板功能
右侧聊天窗输入典型问题,实时查看回复效果
知识片段高亮点击回答中的引用编号,展开对应文档片段
变量(可选)为提示词设置占位符,如 {user_name},便于动态填充

若回答离题或信息缺失,可回到 提示词知识库设置 进行微调,再次测试。


11.6 发布与共享

  1. 点击右上角 发布 → 生成私有链接或嵌入代码
  2. 复制链接分享给团队成员,或将 iframe 嵌入内部门户
  3. 监测 页查看调用量、平均响应时间与成本,持续优化

11.7 🔧 小贴士

  • 多知识库管理:为不同业务线建立独立知识库,避免干扰
  • 降幻觉:在 Prompt 明确“只允许引用知识库”并设置置信度阈值
  • 版本迭代:内容更新后记得“重新索引 + 测试”再发布新版本

完成以上步骤,你就拥有了一个随时回答企业内部问题的“智囊团”机器人,帮团队节省大量搜索与整理时间。

12. 加班党福利:一键生成带emoji的格式化日报

12.1 🎯 学习目标

  • 使用 Chatflow 拖拽式搭建「输入→整理→输出」的工作流
  • 编写系统级提示词,让 AI 自动格式化日报并加上 Emoji
  • 在调试面板验证效果,发布给同事快速复用

12.2 绘制基础流程

第一步:添加开始节点 接收用户原始日报文本

第二步:添加 LLM 节点 解析并格式化内容,插入 Emoji

第三步:添加直接回复节点 将整理后的日报返回给用户

小技巧:先拖出节点再连线,保持「左→右」或「上→下」流向,便于后期阅读。


12.3 配置 LLM 节点

第一步:选择模型 选择已有模型(如 DeepSeek‑V3、GPT‑4o 等)

第二步:粘贴 SYSTEM 提示词

请根据以下指引,输出结构化工作日报:
- 使用 Markdown 列表,每项前加适配主题的 Emoji
- 样式示例:
  - ✅ 完成的任务
  - 🚧 进行中的任务
  - 📌 明日计划
- 如果输入为空或不完整,请礼貌提醒补充
输入内容:
{{ sys.query }}

第三步:设置上下文输入 上下文仅保留 开始 节点的文本,避免冗余。


12.4 调试与优化

操作观察点调整方向
输入示例“写完周报;更新财务表;跟进客户反馈”是否正确拆分并添加 Emoji
换行测试连续输入多行列表是否保持条理
空输入直接点击发送AI 是否提示补充内容

如输出格式混乱,可在提示词中明确「使用短句」「每项前加空格」等规则并重试。


12.5 发布与分享

  1. 点击 发布 → 生成链接,分享给团队
  2. 在侧栏 日志与标注 查看调用记录,收集改进意见
  3. 若需外部系统调用,可在 访问 API 页复制接口地址与密钥

12.6 🔧 提升体验的小贴士

  • Emoji 库:准备一张常用 Emoji 对照表,快速替换或扩展图标
  • 变量占位:将日期 {{ today }} 自动注入,减少每次输入
  • 多语言:在提示词加入“按照用户输入语言返回内容”,适配中英双语团队

通过简单三节点,你就为加班党们打造了一键生成、颜值在线的日报神器,让整理工作不再额外占用宝贵时间。

13. Dify 插件商城:一键选装你的新技能

13.1 🎯 学习目标

  • 找到并进入 插件商城(Marketplace)
  • 学会搜索、浏览和快速安装所需插件
  • 钉钉插件 为例,完成安装

13.2 进入插件商城

第一步:登录并打开插件页 登录 Dify 控制台,点击右上角 插件 图标

第二步:进入 Marketplace 在新页面选择 探索 Marketplace,进入插件总览

第三步:使用筛选与搜索功能 顶部提供搜索框、分类筛选(工具/模型/扩展等),方便快速定位


13.3 浏览与筛选

操作说明
按分类点击标签查看同类插件,了解常见场景
查看详情点进卡片,阅读功能简介、安装量与更新日志
安装将需要的插件点击“安装”加入本地插件列表,后续可在 Agent 中进行使用

13.4 安装钉钉插件

第一步:搜索插件 在搜索框输入 Dingtalk,打开插件详情页

第二步:点击安装 点击 安装,确认后插件即出现在工作区列表


13.5 快速验证

第一步:进入任意应用 打开任意聊天助手或工作流

第二步:添加插件节点 新增 钉钉-发送群消息 节点,如果能够添加该节点,说明安装成功


13.6 🔧 小贴士

  • 版本更新:在“插件”页查看更新提示,点击一键升级
  • 权限管理:为不同成员授予“安装/配置”权限,避免误操作
  • 组合玩法:将钉钉推送与 Chatflow、知识库问答结合,自动播报日报或告警

通过插件商城,你可以像装 App 一样为 Dify 加装“超级外挂”。掌握以上步骤,即可将钉钉插件和更多工具快速融入你的 AI 工作流。

14. 内容即营销:文章生成并群发到钉钉

14.1 🎯 学习目标

  • 使用 Workflow 搭建“输入主题 → 生成文章 → 钉钉推送”完整流程
  • 编写系统提示词,让 LLM 输出 600 字左右、结构化且带 Emoji 的营销文章
  • 配置 钉钉‑发送群消息 节点,实现一键群发

14.2 创建空白 Workflow

第一步:创建应用 在工作室主页点击 创建空白应用

第二步:选择工作流 选择左侧 工作流(Workflow)卡片

第三步:填写应用信息 输入应用名称,如「主题文章一键群发」

第四步:进入编排界面 单击 创建,进入编排界面


14.3 搭建节点流程

顺序节点主要配置
1开始添加变量 topic(必填,文章主题)
2LLM生成文章内容
3钉钉‑发送群消息将 LLM 输出推送到群
4结束(可选)标记流程完成

保持线条自左向右,便于阅读与调试。


14.4 配置 LLM 节点

第一步:选择模型 DeepSeek‑V3、GPT‑4o 等

第二步:填写系统提示词

你是一名营销文案专家,请根据 {{ topic }} 生成一篇 600 字左右的文章,格式如下:
## 14.5 {{ topic }}
- 🎯 **要点一**:…
- 💡 **要点二**:…
- 🚀 **要点三**:…
**结语**:…
要求语言生动、有号召力,保持 Markdown 列表结构。

14.6 配置钉钉推送节点

第一步:设置消息内容 选择 LLM (text),也就是大语言模型返回的文章文字内容

第二步:填写 access_token 复制钉钉群机器人 Webhook 中的 access_token

第三步:填写 sign_secret 开启秘钥加签,粘贴 Secret

第四步:设置消息类型Markdown,保留文章格式与 Emoji

14.6.1 附带指引:如何创建钉钉群聊机器人

第一步:下载安装钉钉手机 app + 钉钉 PC 版

注册或登录钉钉后,如果没有自己的团队,可以创建一个钉钉的团队用于测试。

第二步:创建群聊

在团队页面,先点击右上角的加号。

微信图片_20250717102358

接着点击左上角的发起群聊。

微信图片_202507171023591

点击修改群聊,并填写群的名称,选择内部群来测试就可以。

微信图片_20250717102359

最后仅选择自己,点击右下角的发起群聊,就可以发起成功了。

微信图片_20250717102352

第三步:创建群机器人

进入钉钉 PC 版,找到刚才创建的群聊,点击右上角齿轮按钮,进入群设置。

image-20250717103144072

点击“机器人”。

image-20250717103219317

点击“添加机器人”。

image-20250717103251537

选择自定义。然后点击添加按钮。

image-20250717103313483

填写机器人的名字,勾选加签,此时请记录好加签的秘钥,用于配置。勾选阅读并同意对应的服务条款,点击完成按钮。

image-20250717103507799

此时机器人就添加成功了,在 Webhook 这一栏是机器人的 webhook 地址,里面包含了 access_token=xxx 这样长长的一串文本,请把等于号后面的 xxx 内容,这个就是你的 access_token,用于配置即可,请勿泄露给他人。完成后,点击完成按钮即可。

image-20250717103742222


14.7 调试与发布

第一步:运行测试 点击 运行,在弹框输入示例主题:

AI 在跨境电商营销中的机会

第二步:检查预览效果 观察右侧预览:应生成带标题与 Emoji 列表的文章

第三步:验证群消息推送 检查钉钉群是否收到推送;若失败,核对 Webhook 设置

第四步:正式发布 效果满意后 发布 → 生成链接,分享给营销或运营同事


14.8 🔧 提升体验小贴士

  • 模板变量:在开始节点再添加 authordate 等,提示词中调用 {{ author }} 自动署名
  • 重试策略:在钉钉节点开启“失败重试”,降低偶发网络问题影响
  • 多渠道分发:同一文章可并行接入邮件、飞书或微信公众号插件,实现“一稿多发”
  • 权限控制:在应用设置里赋予运营团队“运行”权限,防止误改流程

完成以上步骤后,任何人只需输入主题,即可自动获取高质量文章并群发钉钉,省去排版与发布时间,让营销更高效。

15. Workflow 千面写手:一键搞定小红书 - 朋友圈 - 博客文案

15.1 🎯 学习目标

  • 使用 Workflow 并行调用多路 LLM,生成三种社媒风格文案
  • 学会在 模板转换 节点用 Jinja2 聚合多段输出
  • 快速预览合并结果,复制即可发布到各平台

15.2 节点流程设计

顺序节点作用
1开始变量 topic(必填:创作主题)
2LLM – 小红书生成种草风格文案,活泼、带 Emoji
3LLM – 朋友圈生成简短日常分享,口语化
4LLM – 博客生成 600 字左右深度长文
5模板转换合并三个输出,保持分区标题
6结束(可选)输出聚合结果

将开始节点连到三条 LLM 支路,三支合流至模板转换,再到结束。


15.3 配置三个 LLM 节点

第一步:设置提示词模板

节点提示词模板(示例)
小红书请用种草风生成 150 字以内文案,包含 Emoji 与产品亮点,话题:{{ topic }}
朋友圈用口语写 80 字以内日常分享,主题:{{ topic }},结尾加 1 个微信表情
博客请写 600 字左右博客文章,三段式结构,主题:{{ topic }},语气诙谐幽默,通俗易懂,深入浅出

第二步:配置上下文同步

  • 同步上下文仅勾选 开始 → topic
  • 可使用同一模型,也可针对需求挑选不同模型版本

15.4 模板转换节点(Jinja2)

第一步:绑定变量

  • 将三路 LLM 输出分别映射到 arg1 arg2 arg3

第二步:输入模板代码

**小红书文案**  
{{ arg1 }}

---
**朋友圈文案**  
{{ arg2 }}

---
**博客文章**  
{{ arg3 }}

第三步:连接到结束节点

  • 保存后连线至 结束 节点

15.5 调试与预览

第一步:点击运行

  • 示例输入:
topic = “学习AI让我充满了活力”

第二步:检查右侧预览

  • 应出现分区标题与三段文案

第三步:修复格式错位

  • 检查:
    • 模板中的空行与 Markdown 语法
    • 变量绑定是否对应 arg1‑3

15.6 发布与使用

  • 发布 → 生成链接,分享给内容团队
  • 运行时输入主题即可拿到三段文案,复制粘贴到小红书 / 微信 / 博客
  • 可在 访问 API 页面获取接口,集成到内部内容生成平台

15.7 🔧 小贴士

需求做法
调整平台数量复制 LLM 节点并在模板新增 arg4、标题区
控制字数在提示词中加入“限 X 字”或 “约 X 字”
批量主题调用 API,循环传入主题列表批量生成

通过并行 LLM + 模板聚合,你就拥有一键生成多平台文案的“千面写手”,从此告别手动改写,提高内容产能与发布效率。

16. 问答投诉收集二合一:实现智能意图识别与即时推送

16.1 🎯 学习目标

  • 理解 Agent 对知识库的基础调用流程
  • 学会在特定意图下触发 钉钉群消息 工具
  • 进阶实现投诉场景的自动识别、整理与推送

16.2 基础功能:纯知识库问答 Agent

第一步:创建空白 Agent 工作室 → 创建空白应用 → Agent → 填写名称并创建

第二步:绑定知识库 在“知识库”区点击 + 添加,选择已调优的知识库

第三步:编写基础提示词

你是企业知识助手。若问题能在知识库找到答案,请引用内容作答;否则回复“暂无相关信息”。

第四步:调试 提问「公司有哪些福利」→ 应返回知识库答案并引用片段


16.3 场景升级:福利查询 + 钉钉群消息

第一步:启用钉钉工具 在“工具”列表开启 dingtalk 发送群消息 并填入 access_tokensign_secret

第二步:完善提示词

当用户询问“公司福利”相关问题时:
1. 先用知识库回答
2. 将答案内容调用 dingtalk 工具发送到群里

第三步:测试 再次提问「公司福利有哪些」→ 右侧日志应显示调用 dingtalk,群聊收到福利内容


16.4 高阶实战:投诉识别与自动推送

第一步:扩展提示词

如果用户包含“投诉/抱怨/不满”等字样:
1. 提炼关键要点:投诉对象、问题描述、联系方式,如果用户描述中部分内容没有包含,则向用户确认
2. 整理成 Markdown 列表
3. 使用 dingtalk 工具发送到群(如果存在待确认的项目则先不要发送)
4. 向用户回复“已收到您的反馈,将尽快处理”

第二步:调试场景 输入「我要投诉客服态度恶劣,还挂我电话」→

  • 聊天窗口回复确认
  • 钉钉群收到整理后的投诉信息

16.5 🔧 优化小贴士

  • 在提示词列举更多投诉关键词(差评、吐槽、不满意)提高识别率
  • 针对不同意图设置不同消息模板,如加 tag #投诉 方便群内搜索

完成以上三步,你已从简单问答逐步升级到可识别投诉并自动推送的全能 Agent,为企业服务效率再提一档。

17. 可视化洞察:工作流日志分析与API对接

17.1 🎯 学习目标

  • 熟练使用 日志与标注 面板排查调用记录、筛选关键问题
  • 通过 标注回复 统一标准答案,降低模型成本并保持口径一致
  • 获取 访问 API 凭证,调用聊天 / 工作流接口,将结果接入外部系统

17.2 历史日志:快速定位与排查

第一步:进入日志面板 应用侧栏点击 日志与标注,默认展示最近调用记录

第二步:筛选与搜索 按「时间范围 / 是否标注」过滤,或在搜索框输入关键词精准检索

第三步:查看调用详情 点开单条日志可查看用户输入、模型回复、Token 消耗、工具调用轨迹等信息,便于复现与调试


17.3 标注回复:固定统一答案

第一步:新建标注 在日志详情右下角点击 添加标注,将当前问答保存为标准回复

第二步:编辑回复内容 进入 标注 页面,可修改文本、添加 Markdown、插入引用片段

第三步:启用标注规则 开启后,同类问题命中即直接返回标注内容,不再调用模型,加速响应并节省费用


17.4 访问 API:把能力嵌入业务系统

第一步:获取 API Key 在应用侧栏点击 访问 API,生成或复制密钥,记录 Base URL

第二步:调用接口

  • 聊天接口:POST /v1/chat-messages 发送问题并流式获取答案
  • 运行工作流:POST /v1/workflows/run 触发流程;GET /workflows/run/{id} 轮询状态与结果
# WINDOWS中执行例子,保存成一个.cmd文件,ANSI编码
curl -X POST "https://api.dify.ai/v1/workflows/run" ^
--header "Authorization: Bearer $API_KEY" ^
--header "Content-Type: application/json" ^
--data-raw "{\"inputs\": {\"topic\":\"AI 在电商的应用\"}, \"response_mode\": \"streaming\", \"user\": \"abc-123\"}"

第三步:集成示例

  • IM 推送:触发工作流生成日报,待 status=succeeded 后读取 outputs.text 字段,推送至企业 IM 群
  • 数据大屏:定时调用日志 API,将 Token 使用量写入 BI 工具,制作成本监控看板

17.5 FAQ

疑问快速排查解决建议
日志列表为空应用未发布或调用失败发布后重试;检查 API Key 权限
标注未命中关键词差异在标注中补充同义词或使用正则
API 返回 401Token 失效 / 格式错误重新生成密钥,放入 Authorization: Bearer 请求头
工作流结果为空查询过早轮询 GET /workflows/run/{id} 直到 status=succeeded

通过日志分析、标注管理与 API 对接三大能力,你可以先在页面可视化洞察问题,再在代码层面灵活集成,让 Dify 与业务系统实现闭环协同。

18. Dify 降本增效:你必须知道的六大秘诀

18.1 🎯 学习目标

  • 系统掌握用 Dify 降低调用成本、提升整体效率 的 6 条核心技巧
  • 理解每条秘诀的适用场景与落地方法,避免常见“踩坑”
  • 为未来大规模上线打好成本可控、体验稳定的基础

18.2 秘诀一:善用「AI 生成」优化提示词

核心思路:让系统把“口语需求”自动升级为高质量 Prompt,少走调参弯路。

  • 适用场景:初稿只有大白话或草稿提示词,效果不稳定。
  • 具体做法:在提示词编辑器点击 AI 生成,输入简要需求;系统会自动补全角色、目标、格式要求与变量占位。
  • 收益:平均减少 50 % 以上的手动调试轮次,Token 消耗和时间成本同步下降。

18.3 秘诀二:精调知识库「颗粒度」

核心思路:通过合理的 Chunk Size 与 Overlap,让“精准召回”与“向量数量”两端平衡。

  • 适用场景:召回分数低、向量库膨胀或查询延迟高。
  • 具体做法
    1. 知识库 → 设置 → 分段策略 调整 Chunk Size(512‑768 tokens)和 Overlap(10‑25 %)。
    2. 召回测试 验证 Score;若不足 0.7,微调参数并重索引。
  • 收益:向量量级最多可缩减 30 %,同时保持回答准确度。

18.4 秘诀三:严控对话历史「记忆长度」

核心思路:只保留真正必要的上下文,避免 Token 滚雪球。

  • 适用场景:聊天助手连续对话导致成本飙升。
  • 具体做法
    • 在助手设置将「保留轮次」设为 3‑5;对于长对话,启用“记忆窗口”。
    • 对无关闲聊可设置关键词过滤,直接返回礼貌回复,跳过模型。
  • 收益:对活跃用户场景可降费 40 % 以上,且回复时延更稳定。

18.5 秘诀四:巧用「内容审查(Moderation)」

核心思路:拦截恶意或无意义请求,把算力用在真正价值场景。

  • 适用场景:公开产品、易被刷无关问题或敏感词。
  • 具体做法
    • 在应用 内容审查 页启用敏感词检测;自定义黑名单或正则。
    • 命中后直接返回预设回复,例如“抱歉,无法回答此类问题”。
  • 收益:减少 10‑15 % 的无效调用,降低风险并节省模型开销。

18.6 秘诀五:选择最简化的应用架构

核心思路:能用 Prompt 解决的场景,不必搭繁琐 Workflow。

  • 适用场景:单轮问答、简单多轮对话、内容生成。
  • 具体做法
    • 优先创建 聊天助手,用系统提示词+变量驱动。
    • 仅当需要并行任务、外部 API、条件分支时再使用 Workflow。
  • 收益:减少节点维护,降低 20 % 以上的调用链路延迟与故障点。

18.7 秘诀六:活用「日志与标注」持续优化

核心思路:把高频、高耗问题标注成固定答案,持续迭代降费。

  • 适用场景:客服问答、多用户公共知识库。
  • 具体做法
    1. 日志与标注 查看历史日志情况,挑选高频问题。
    2. 点击 标注 保存标准答案;开启后命中直接返回,无需模型。
  • 收益:热门问题成本可近乎归零;同时保证回答统一、合规。

18.8 总结

  • 省心靠系统:让 AI 代写 Prompt、自动审查,减人力减调参。
  • 省钱靠颗粒:合理分段、裁剪上下文,把 Token 用在刀刃上。
  • 省时靠监控:日志找痛点、标注做闭环,持续迭代才是王道。