1. Dify 能力全开:低代码智能神器简介
1.1 🎯 学习目标
- 认识 Dify 平台及其官网入口:dify.ai
- 理解 Dify 的核心定位与六大能力模块
- 掌握 Dify 在不同场景下的典型应用
1.2 📚 什么是 Dify?
Dify 是一款开源的 LLM 应用开发平台,融合 Backend‑as‑a‑Service(BaaS)与 LLMOps 思想,提供:
- 可视化 Prompt 编排:拖拽式编辑,无需写一行代码
- 高质量 RAG 引擎:内置向量检索,文档召回更高效
- 灵活 Agent 框架:用“角色+目标+约束”快速定义智能体
- 低代码工作流:跨模型、跨工具,一键串联业务流程
- 即用界面 & API:标准 RESTful 接口,轻松接入现有系统
官网:dify.ai
1.3 💻 Dify 内核解析
- 平台定位:为什么选择 Dify 而非底层 SDK
- 六大能力
- 多模型支持
- 可视化 Prompt 编排
- RAG 向量检索
- Agent 智能体
- 低代码工作流
- 界面与 API
- 应用场景:
- 最低成本验证创意和 MVP
- 将 AI 无缝接入业务系统
- 私有化自部署,实现数据和模型全托管
- 零门槛体验 Prompt 工程与 Agent 编排
1.4 ❓ 常见问题
1.4.1 Q:Dify 与 LangChain 等底层库有何本质区别?
A:LangChain 是“零件库”,需自行拼装、运维;Dify 是“生产级平台”,集可视化、运维、模型管理与多模型接入于一体。
1.4.2 Q:如何在本地私有化部署 Dify?
A:Dify 完全开源,可使用 Docker Compose 或源码方式自部署,保证数据和模型都在自己掌控之中。如果不希望自己部署,也可以在官网注册 Dify Cloud 账号在线进行使用。
2. 点击即用:云端账号注册一站速通
2.1 🎯 学习目标
- 快速完成 Dify 云端账号注册与登录
- 熟悉登录后首页的主要界面布局
2.2 📚 前置条件
- 准备一个可用的 GitHub 或 Google 账号
- 能正常访问 cloud.dify.ai
2.3 📝 操作步骤
- 访问云端入口 打开浏览器,输入 cloud.dify.ai 并回车。
- 选择第三方登录
- 点击“使用 GitHub 登录”或“使用 Google 登录”按钮
- 在弹出的授权窗口中,确认授权即可进入 Dify
- 你也可以使用你自己的邮箱注册登录
- 了解登录后首页布局
- 顶部导航:
- 搜索框:快速查找应用或知识库
- “工作室”、“知识库”、“工具”按钮:切换功能区
- 用户头像:查看账户设置或登出
- 标签过滤栏:
- “全部”、“工作流”、“Chatflow”、“聊天助手”、“Agent”、“文本生成”
- 点击任意标签,可只看对应类型的项目
- 创建应用卡片:
- “创建空白应用”、“从应用模板创建”、“导入 DSL 文件”三种入口
- 已创建应用列表:
- 以卡片形式展示你所有项目,显示名称、最后编辑时间、简要描述
- 顶部导航:
3. Dify本地部署:Docker Compose 来搞定
3.1 🎯 学习目标
- 在本地通过 Docker Compose 一键部署 Dify 社区版
- 启动所有服务容器并确认运行状态
- 访问本地界面,验证部署成功
3.2 📚 前置条件
- 已安装 Docker Engine 与 Docker Compose
- CPU ≥ 2 核,内存 ≥ 4 GiB
- 网络可访问 GitHub
- 安装好 Git git-scm.com/downloads
3.2.1 🔗 Docker 下载及安装地址
- Docker 安装:访问 docs.docker.com/get-docker/ 下载安装 Docker Desktop 或 Docker Engine
3.3 📝 操作步骤
-
克隆源码仓库
git clone https://github.com/langgenius/dify.git --branch 版本号请根据最新发行版本号替换,比如
1.6.0 -
进入 Docker 配置目录
cd dify/docker -
复制环境变量模板
cp .env.example .env可按需调整
.env中的端口、存储路径等参数,默认配置即可用于本地测试。 -
一键启动容器
docker compose up -d使用 Docker Compose V2 语法,后台启动所有服务。
-
查看容器状态
docker compose ps确认
api、web、worker、db、redis、nginx、weaviate等容器都处于Up状态。
3.4 🖥️ 验证部署
-
打开浏览器访问:http://127.0.0.1
-
如果你在.env文件中配置了新的nginx端口,请使用新的端口来访问
-
你应能看到 Dify 登录/安装页面
-
若出现错误,可执行:
docker compose logs -f查看日志流,定位启动异常
至此,本地 Dify 社区版已成功部署并启动。
4. 一键接通大模型:LLM 配置全流程
4.1 🎯 学习目标
- 了解 Dify “模型供应商(Model Providers)”机制,并能在设置页新增主流大模型
- 学会设置默认推理模型、Embedding 模型与 Rerank 模型,为后续 RAG / Agent 场景打下基础
4.2 📚 前置条件
| 项目 | 说明 |
|---|---|
| Dify 部署 | 已完成云端注册或本地 Docker Compose 部署,能正常登录控制台 |
| API 凭证 | 至少准备一份有效的模型 API Key |
| 网络 | 可访问对应模型供应商的 API 域名 |
4.3 📝 操作步骤
4.3.1 进入「模型供应商」
- 登录 Dify 控制台,点击左侧 设置 → 模型供应商 (Model Providers)
- 页面展示当前已接入的所有模型及其调用统计,为后续管理提供统一入口
4.3.2 添加 LLM 厂商
操作:找到对应的模型供应商,点击安装按钮进行安装即可。安装完成后,配置该厂商的API KEY。
4.3.3 设定默认模型
- 点击系统模型设置,选择每种类型的默认模型。
完成以上步骤后,你已成功将所需大模型接入 Dify,后续即可在应用、工作流与知识库中自由调用。
5. 知识库秒上云:文档上传 & 管理入门
5.1 🎯 学习目标
- 在 Dify 云端或本地实例中新建知识库
- 一键上传本地文档并完成基础管理
- 进行文档增删改查及权限配置
5.2 📚 前置条件
- 已完成 Dify 登录,进入“知识库”模块
- 准备好支持格式(PDF、DOCX、Markdown、TXT)文档
- 拥有知识库操作权限
5.3 📝 操作步骤
第一步:创建知识库
- 点击顶部导航 “知识库” → “创建知识库”
- 可以直接导入文件或者创建一个空的知识库
第二步:上传文档
- 进入“文档”页签,点击“添加文件”
- 拖拽或选择本地文件,支持批量上传
- 等待系统完成文档清洗与索引
第三步:文档管理
- 在文档列表中,点击“更多”可进行归档或删除
- 使用搜索框快速定位目标文档
- 批量操作:选中多份文档执行统一操作
第四步:权限设置
- 进入“设置” → “可见权限”
- 分配“只有我”/“部分团队成员”/“所有团队成员”角色
- 确保团队成员按需访问相应知识库
5.4 ❓ 常见问题
- 上传失败:检查文件大小限制及网络状态
- 文档不可见:确认是否具有查看权限
6. 分段还是整篇?知识库切片与检索参数秘籍
6.1 🎯 学习目标
- 理解「切片(Chunking)」在知识库中的作用与工作流程
- 掌握通用 General 与父子 Parent‑Child 两种分段模式的适用场景及优缺点
- 熟悉 Chunk Size、Overlap、Top K、Rerank 等核心检索参数,并能根据业务需求进行调优
- 了解高质量 High‑Quality vs 经济型 Economical 两种索引方式的差异与选型思路
6.2 核心概念快速扫盲
| 概念 | 作用 | 典型影响 |
|---|---|---|
| Chunking | 将长文本拆成小块,保证语义完整又不过度冗长 | 提升召回精准度与回答上下文连贯性 |
| Chunk Size | 每块最大 Token 数 | 过大易超上下文窗口;过小则割裂语义 |
| Chunk Overlap | 相邻块重叠 Token 数 | 保留跨段关联,降低“断句”风险 |
| Top K | 检索返回前 K 条片段 | 控制上下文注入量,平衡成本与信息密度 |
| Rerank | 二次排序模型 | 重新评估相关性,过滤干扰片段 |
6.3 切片工作流程
第一步:文本清洗 去除空行、脚注、无意义符号后得到纯净正文
第二步:选择 Chunk Mode 在创建知识库或后期设置中决定 通用分段 / 父子分段
第三步:预览分段 系统实时展示切片示例,便于微调参数
第四步:向量化索引 片段送入 Embedding 模型生成向量并入库
第五步:检索测试 通过 Retrieval Test(召回测试)查看命中片段及相似度分数,迭代优化
6.4 两大分段模式对比
| 维度 | 通用 General | 父子 Parent‑Child |
|---|---|---|
| 适用文档 | 新闻、博客、报告等扁平结构 | API 手册、产品说明书等层级分明文档 |
| 粒度 | 均匀切块,简单高效 | 保留大纲层级,语义上下文更完整 |
| 优势 | 处理速度快,占用存储低 | 提问准确率高,减少片段碎片化 |
| 劣势 | 复杂层级信息易丢失 | 向量量增大,索引成本上升 |
| 调优要点 | 优先增大 Chunk Size | 适当缩小 Chunk Size,增大 Overlap |
实战建议
- 文档结构简单 → 先用 General;若问答断句明显,再尝试 Parent‑Child
- 复杂目录/代码示例多 → 直接选择 Parent‑Child 并调大 Overlap
父区块(Parent-chunk)保持较大的文本单位(如段落),提供丰富的上下文信息;子区块(Child-chunk)则是较小的文本单位(如句子),用于精确检索。系统首先通过子区块进行精确检索以确保相关性,然后获取对应的父区块来补充上下文信息,从而在生成响应时既保证准确性又能提供完整的背景信息。
6.4.1 参数调优清单
- Chunk Size:512 → 768 → 1024,逐级调大直至不触发窗口溢出
- Overlap:默认为 50,若出现“上下文割裂”可提升至 100‑150,建议设置为分段长度 Tokens 数的 10-25%
6.5 索引方式与检索参数
6.5.1 高质量 High‑Quality vs 经济型 Economical
| 方案 | 特点 | 典型场景 |
|---|---|---|
| 高质量 | 多向量、多索引,召回准确度高 | 专业知识库、客服 FAQ、财务报告 |
| 经济型 | 单向量、低存储,成本友好 | 海量新闻素材、社媒评论、日志数据 |
6.5.2 参数调优清单
- Top K:业务问答场景推荐 3‑5;分析/摘要类可增至 10
- Rerank:启用后可显著降低离题片段,但会增加延迟与成本
6.6 常见问题(FAQ)
第一问:分段后 Q&A 仍答非所问 检查是否使用了 General 处理层级文档;改用 Parent‑Child 并增大 Overlap
第二问:索引体积过大 尝试经济型索引或压缩 Embedding 维度,定期清理无用文档
第三问:检索速度慢 减小 Top K,必要时提升硬件配置
第四问:同义词召回差 选用更强大的 Embedding 模型或启用 Rerank 模块提高相关性
掌握上述切片与检索参数秘籍,你就能在效率与准确性之间找到最佳平衡,为后续 RAG 与 Agent 场景奠定坚实基础。
7. Embedding 魔法揭秘:向量化原理 & 场景
7.1 🎯 学习目标
- 快速理解 “Embedding” 是什么
- 明白为什么知识库检索离不开向量化
- 认识几款开箱即用的 Embedding 模型
- 掌握在实际项目中怎样“调味”参数,让检索更准
7.2 一句话搞懂 Embedding
Embedding的概念:将离散文本映射为可计算的高维向量。
就像给每句话配上一张“语义身份证”。 把文字变成一串数字坐标,两串坐标计算距离,数字越近,意思越像,越相关。
比如存储的文本为
AI Agent,转换成向量坐标为 [1,2,3...]要查询的文本
AI,转换成向量坐标为 [1, 2, 0...]通过计算坐标之间的距离,距离最近的为最相关的结果,这样可以快速完成内容快速检索。
7.3 为什么要做 Embedding?
- 关键词检索局限:只看字面,遇到同义词或口误就找不到答案
- 向量检索优势:看“意思”而不是“拼写”,同义词、长句、错别字都能戳中要害
- 零代码体验:现成模型(如
BAAI/bge-m3、OpenAItext-embedding-3) 一键接入,不用自己训练(BAAI 为智源研究院)
7.4 Embedding 工作流程
7.5 开箱即用热门模型
| 模型 | 维度 | 亮点 | 适合场景 |
|---|---|---|---|
| BGE‑m3 (中英) | 768 | 免费、效果佳、中文友好 | 国内多语言检索 |
| OpenAI text-embedding-3 | 1536 | 准确度高、更新快 | 专业客服、全球化应用 |
| MiniLM | 384 | 轻量级、算力要求低 | 移动端、本地部署 |
选模型就像选相机:像素高≠最好,用得顺手、成本合适才最重要
7.6 应用场景小抄
- 智能问答:问题 → 相似文档 → LLM 生成带引用答案
- 商品推荐:把用户历史和商品描述都向量化,“离你最近”即为推荐
- 内容聚类:将上万篇文章按向量自动分组,秒出热点话题
- 语义去重:向量间距极小的文本大概率是“同一事”,一键剔除重复
7.7 调味小贴士
| 调味点 | 建议做法 |
|---|---|
| 维度 | 300‑800 已够用,越高越耗存储 |
| Top K | 问答模式 3‑5;摘要/推荐 10‑20 |
| 阈值 | 相似度 < 0.2 可视为“不相关” |
| 缓存 | 高频问题先缓存结果,提速 10× 以上 |
7.8 ❓ FAQ
- 模型要自己训练吗? 不需要,直接用社区或商业模型即可满足 90% 场景。
- 中文效果不好怎么办? 试试 BGE 系列或其他中文优化模型。
- 数据更新后要重算吗? 是的,新文本需重新向量化并写入库中,否则检索不到。
8. RAG 时代来了:检索增强背后的逻辑
8.1 🎯 学习目标
- 弄清 RAG(Retrieval‑Augmented Generation) 的核心原理
- 理解“检索 + 生成”双引擎如何解决 LLM 幻觉与信息时效问题
- 掌握 RAG 流水线的关键组件:Retriever、Reranker、Generator
- 了解 Top K、Max Tokens、温度等常用调优参数及取值建议
- 识别实现 RAG 时常见的坑点与优化思路
8.2 RAG 一句话公式
RAG = 先“查资料”,再“写答案” LLM 不再凭记忆胡猜,而是在回答前检索最新可信的外部内容,并把检索结果拼进 Prompt,一并喂给模型生成。
8.3 组成三件套
| 角色 | 作用 | 常用技术 / 组件 |
|---|---|---|
| Retriever | 语义检索,找出与问题最相关的“片段” | 向量库、Top K |
| Reranker | 对检索结果二次排序,提升相关度 | 学术版 BGE‑Reranker、Cross‑Encoder |
| Generator | 依据问题 + 片段生成回答 | GPT‑4o、Gemini、Claude、DeepSeek 等 LLM |
流水线:用户提问 → Retriever 返回候选片段 → Reranker 精排 → 将 Top N 片段与问题一起打包 → 送往 Generator → 最终答案
8.4 为什么 RAG 更靠谱?
- 实时性:检索外部最新文档,突破 LLM 训练数据时效
- 可引用:回答可附带原文片段,提升可信度与可追溯性
- 控幻觉:有外部事实支撑,降低模型胡编概率
- 节省成本:无需频繁微调大模型,通过更新知识库即可迭代
8.5 关键调优参数
| 参数 | 含义 / 典型值 | 调优思路 |
|---|---|---|
| Top K | 检索候选片段数(3‑8) | 问答场景 3‑5;分析场景 6‑8 |
| Max Tokens | 给片段的最大长度 | 片段长 → 语境足;过长占用上下文 |
| 温度(T) | 输出随机度(0‑1) | 问答 0‑0.3;创意写作 0.7‑0.9 |
| Rerank 阈值 | 保留片段的最低分 | 低阈值召回宽,高阈值更精准 |
8.6 实战建议
-
Prompt 模板
- 问题区 + “请基于以下片段回答” + 片段区 + 回答格式要求
- 片段区可用标题 + 摘要或全文,编号方便引用
-
片段格式
<doc id=1> …内容… </doc>这类分隔便于模型分辨不同来源,减少混淆
-
多策略检索
- 关键词过滤 + 向量检索组合
- 向量召回 Top K=8,关键词再过滤 → Top K=4
-
缓存与批处理
- 高频问题缓存检索结果与答案
- 对长对话启用“滚动窗口”,避免上下文超长
8.7 典型应用场景
| 场景 | 说明 |
|---|---|
| 企业知识库问答 | 员工提问 → 检索公司文档 → 准确溯源回答 |
| 金融数据分析 | 实时抓取财报片段 → LLM 生成分析报告 |
| 法律条文检索 | 问题 → 检索法规条款 → 生成带条款引用的意见 |
| 多语言客服 | 用户语言 → 检索本地语言文档 → 翻译回答 |
8.8 ❓ 常见问题 (FAQ)
- 检索到的片段不相关怎么办? 调低 Chunk Size,增大 Overlap;或启用更强的语义 Reranker。
- 上下文超长导致截断? 缩小 Top K,精简片段文本,用摘要代替全文。
- 模型仍旧“编故事”? 调低温度,强制回答“基于片段”;或在 Prompt 中加入“若找不到答案,请回复‘暂无相关信息’”。
- 查询慢? 启用 HNSW 索引、内存缓存;对超大库尝试分区检索并行化。
掌握了 RAG 的检索增强逻辑,你就能让大模型说有根有据的话,为智能问答、数据分析等业务场景注入最新、最可信的事实能力。
9. 召回效果大体检:分段质量评估上手
9.1 🎯 学习目标
- 找到并打开 召回测试 面板
- 用典型问题快速评估知识库的召回质量
- 读懂分数与片段列表,判断分段效果好坏
- 记录测试结果,为下一步调参与重索引提供依据
9.2 入口与界面
| 区域 | 位置 | 功能 |
|---|---|---|
| 召回测试 | 文档侧边栏 → 召回测试 | 打开评估面板 |
| 源文本框 | 左侧大输入框 | 输入待测试问题(≤ 200 字符) |
| 测试按钮 | 文本框右下角 测试 | 触发检索与评分 |
| 片段列表 | 右侧 | 展示 Top K 片段、来源文件、相似度分数 |
| 历史记录 | 底部 记录 区 | 自动保存每次测试的问题与时间 |
小贴士:面板支持实时改写问题再测,无需重复打开。
9.3 三步评估流程
第一步:输入典型问题 选择真实用户常问、覆盖核心业务的句子,例如「公司有哪些福利」。
第二步:点击测试 系统秒级返回最相关的若干片段,并按相似度高低排序。
第三步:观察分数与内容
- Score ≥ 0.7:高度相关
- 0.4 ≤ Score < 0.7:中等相关
- Score < 0.4:弱相关或误召回
记录分数、片段质量与文件来源,为后续调整参数提供依据。
9.4 结果解读要点
| 现象 | 可能原因 | 建议动作 |
|---|---|---|
| 分数整体偏低 | Chunk 太大 / 模式不匹配 | 适当缩小 Chunk Size 或切换分段模式 |
| 片段缺关键信息 | Overlap 过小 | 将 Overlap 提高至 10‑25 % 区间 |
| 列表片段重复 | Overlap 过大 | 下调 Overlap,或启用去重 |
| 列表为空 | 文件未索引完 / 文档语言不符 | 检查索引状态,分库存放不同语言 |
9.5 测试记录与复盘
- 多场景提问:覆盖 FAQ、操作指南、政策制度等不同主题
- 截图或导出结果:便于按分段参数对照前后变化
- 迭代节奏:推荐「调参 → 重索引 → 再测」两轮即可稳定
9.6 ❓ FAQ
- 测试按钮灰色不可点? 检查是否超出 200 字符或文本框为空。
- 分数波动大? 避免过短或过长问题句,保持结构一致做对比。
- 片段显示乱码? 原文编码异常,重新上传或转为 UTF‑8。
通过召回测试,你可以用最直观的方式评估知识库的分段与检索质量,为后续调参奠定数据基础,让 RAG 回答更准确、更可靠。
10. 智能切片+精准召回:命中率翻倍秘籍
10.1 🎯 学习目标
- 学会为知识库 预处理与标记 文档,让系统“一眼识段”
- 掌握 硬分隔、软分隔 两大技巧,避免断句或漏召回
- 知道何时 合并、何时 拆分,让每段既完整又不过长
- 熟悉重索引小流程,把调优反馈迅速闭环
10.2 课前自检
| 检查项 | 目标状态 |
|---|---|
| 文档源格式 | Markdown / Docx / 纯文本优先,避免扫描 PDF |
| 语言一致性 | 同一知识库尽量单语种,双语分库 |
| 重复段落 | 删除页眉页脚、版权说明等高频噪声 |
| 表格 & 图片 | 转成纯文本描述或附注,方便向量化 |
10.3 基础清洗:让内容“干净”上桌
第一步:统一编码 全部转 UTF‑8,防止乱码
第二步:去除杂质 页码、脚注、广告条幅全部删掉
第三步:合并短句 一句话不到 30 字就合到上一段,避免系统视为噪声
第四步:消歧术语 用“术语表”统一同义词,例如 KPI = 关键绩效指标
10.4 硬分隔:告诉模型“这里必须切”
- 在 章节标题 前后留空行或使用
---,形成天然断点 - 对 FAQ、条款手册类文档,用
### 问题/### 答案明确边界 - 大段表格或代码块,用 三引号 包裹,避免被打碎
- 对多列表格,可先转纯文本并用 | 分隔,系统更易理解列关系
示例
### 3.2 员工福利 --- 公司为正式员工提供以下福利: 1. 五险一金 2. 年度体检 3. …
10.5 软分隔:让上下文自然“连起来”
- Chunk Size 目标:512‑768 tokens,语义足够完整
- Overlap 建议 10‑25 %:让跨段信息有交集,防止断链
- 父子模式:大纲清晰的手册、API 文档直接选用,标题‑正文天然父子关系
- General 模式:新闻、博客类连续文本更高效,Chunk Size 适当放大
10.6 语义加分器:提升命中率的三把钥匙
| 技巧 | 操作 | 效果 |
|---|---|---|
| 关键词注射 | 在标题或首句加入领域高频关键词 | 检索时更易命中 |
| 同义词库 | 在文末附“关键术语对照” | 捕获多说法提问 |
| 元数据标签 | 在文档头加 tags: HR, 福利, 政策 | 供 Hybrid 检索硬过滤 |
10.7 重索引闭环
第一步:上传 → 召回测试 输入典型问题观察 Score
第二步:记录问题片段 分数低?看是切太碎还是太长
第三步:调整边界/Overlap 改完后点击 重新索引
第四步:再测 目标 Score 稳定 ≥ 0.7
10.8 ❓ FAQ
| 问题 | 快速解法 |
|---|---|
| 切完段子太多? | 合并短句、增大 Chunk Size 到 1024 |
| 同一句多次出现? | Overlap 过大,下调到 10 % |
| 命中片段无关? | 检查是否漏清页眉、脚注等噪声 |
| 多语言混检索不准? | 按语种建独立知识库 |
通过「干净内容 + 清晰边界 + 适度重叠」三步法,你的知识库切片将更精准,召回得分自然翻倍,为后续 RAG 问答打下坚实基础。
11. 企业智囊团:属于你的知识库问答机器人
11.1 🎯 学习目标
- 在 Dify 工作室 中创建一款聊天助手
- 将已上传的知识库与聊天助手绑定
- 通过调试面板验证问答效果并发布
11.2 创建聊天助手
第一步:进入创建界面 进入 工作室 → 创建空白应用 → 聊天助手
第二步:填写基础信息 输入 名称、描述,选择一张头像(可选)
第三步:点击创建应用 点击 创建 创建应用
11.3 绑定知识库
第一步:进入知识库配置区 在左侧导航找到 知识库 区块,点击 + 添加
第二步:选择知识库 从下拉列表中选择之前上传并调优好的知识库
第三步:支持多库并行 如需多库并行,可重复添加
第四步:确认绑定 确认后点击添加按钮,知识库名称将显示在配置面板中
11.4 设计系统提示词
-
在 “提示词” 编辑框写入 System Prompt,示例:
你是企业内部的智能顾问,只能基于知识库回答。 若知识库没有相关内容,请回答“暂时未找到相关信息”。 -
保持语气正式、简洁,避免过度花哨的表达
11.5 调试与预览
| 面板 | 功能 |
|---|---|
| 右侧聊天窗 | 输入典型问题,实时查看回复效果 |
| 知识片段高亮 | 点击回答中的引用编号,展开对应文档片段 |
| 变量(可选) | 为提示词设置占位符,如 {user_name},便于动态填充 |
若回答离题或信息缺失,可回到 提示词 或 知识库设置 进行微调,再次测试。
11.6 发布与共享
- 点击右上角 发布 → 生成私有链接或嵌入代码
- 复制链接分享给团队成员,或将 iframe 嵌入内部门户
- 在 监测 页查看调用量、平均响应时间与成本,持续优化
11.7 🔧 小贴士
- 多知识库管理:为不同业务线建立独立知识库,避免干扰
- 降幻觉:在 Prompt 明确“只允许引用知识库”并设置置信度阈值
- 版本迭代:内容更新后记得“重新索引 + 测试”再发布新版本
完成以上步骤,你就拥有了一个随时回答企业内部问题的“智囊团”机器人,帮团队节省大量搜索与整理时间。
12. 加班党福利:一键生成带emoji的格式化日报
12.1 🎯 学习目标
- 使用 Chatflow 拖拽式搭建「输入→整理→输出」的工作流
- 编写系统级提示词,让 AI 自动格式化日报并加上 Emoji
- 在调试面板验证效果,发布给同事快速复用
12.2 绘制基础流程
第一步:添加开始节点 接收用户原始日报文本
第二步:添加 LLM 节点 解析并格式化内容,插入 Emoji
第三步:添加直接回复节点 将整理后的日报返回给用户
小技巧:先拖出节点再连线,保持「左→右」或「上→下」流向,便于后期阅读。
12.3 配置 LLM 节点
第一步:选择模型 选择已有模型(如 DeepSeek‑V3、GPT‑4o 等)
第二步:粘贴 SYSTEM 提示词
请根据以下指引,输出结构化工作日报:
- 使用 Markdown 列表,每项前加适配主题的 Emoji
- 样式示例:
- ✅ 完成的任务
- 🚧 进行中的任务
- 📌 明日计划
- 如果输入为空或不完整,请礼貌提醒补充
输入内容:
{{ sys.query }}
第三步:设置上下文输入
上下文仅保留 开始 节点的文本,避免冗余。
12.4 调试与优化
| 操作 | 观察点 | 调整方向 |
|---|---|---|
| 输入示例 | “写完周报;更新财务表;跟进客户反馈” | 是否正确拆分并添加 Emoji |
| 换行测试 | 连续输入多行 | 列表是否保持条理 |
| 空输入 | 直接点击发送 | AI 是否提示补充内容 |
如输出格式混乱,可在提示词中明确「使用短句」「每项前加空格」等规则并重试。
12.5 发布与分享
- 点击 发布 → 生成链接,分享给团队
- 在侧栏 日志与标注 查看调用记录,收集改进意见
- 若需外部系统调用,可在 访问 API 页复制接口地址与密钥
12.6 🔧 提升体验的小贴士
- Emoji 库:准备一张常用 Emoji 对照表,快速替换或扩展图标
- 变量占位:将日期
{{ today }}自动注入,减少每次输入 - 多语言:在提示词加入“按照用户输入语言返回内容”,适配中英双语团队
通过简单三节点,你就为加班党们打造了一键生成、颜值在线的日报神器,让整理工作不再额外占用宝贵时间。
13. Dify 插件商城:一键选装你的新技能
13.1 🎯 学习目标
- 找到并进入 插件商城(Marketplace)
- 学会搜索、浏览和快速安装所需插件
- 以 钉钉插件 为例,完成安装
13.2 进入插件商城
第一步:登录并打开插件页 登录 Dify 控制台,点击右上角 插件 图标
第二步:进入 Marketplace 在新页面选择 探索 Marketplace,进入插件总览
第三步:使用筛选与搜索功能 顶部提供搜索框、分类筛选(工具/模型/扩展等),方便快速定位
13.3 浏览与筛选
| 操作 | 说明 |
|---|---|
| 按分类 | 点击标签查看同类插件,了解常见场景 |
| 查看详情 | 点进卡片,阅读功能简介、安装量与更新日志 |
| 安装 | 将需要的插件点击“安装”加入本地插件列表,后续可在 Agent 中进行使用 |
13.4 安装钉钉插件
第一步:搜索插件 在搜索框输入 Dingtalk,打开插件详情页
第二步:点击安装 点击 安装,确认后插件即出现在工作区列表
13.5 快速验证
第一步:进入任意应用 打开任意聊天助手或工作流
第二步:添加插件节点 新增 钉钉-发送群消息 节点,如果能够添加该节点,说明安装成功
13.6 🔧 小贴士
- 版本更新:在“插件”页查看更新提示,点击一键升级
- 权限管理:为不同成员授予“安装/配置”权限,避免误操作
- 组合玩法:将钉钉推送与 Chatflow、知识库问答结合,自动播报日报或告警
通过插件商城,你可以像装 App 一样为 Dify 加装“超级外挂”。掌握以上步骤,即可将钉钉插件和更多工具快速融入你的 AI 工作流。
14. 内容即营销:文章生成并群发到钉钉
14.1 🎯 学习目标
- 使用 Workflow 搭建“输入主题 → 生成文章 → 钉钉推送”完整流程
- 编写系统提示词,让 LLM 输出 600 字左右、结构化且带 Emoji 的营销文章
- 配置 钉钉‑发送群消息 节点,实现一键群发
14.2 创建空白 Workflow
第一步:创建应用 在工作室主页点击 创建空白应用
第二步:选择工作流 选择左侧 工作流(Workflow)卡片
第三步:填写应用信息 输入应用名称,如「主题文章一键群发」
第四步:进入编排界面 单击 创建,进入编排界面
14.3 搭建节点流程
| 顺序 | 节点 | 主要配置 |
|---|---|---|
| 1 | 开始 | 添加变量 topic(必填,文章主题) |
| 2 | LLM | 生成文章内容 |
| 3 | 钉钉‑发送群消息 | 将 LLM 输出推送到群 |
| 4 | 结束(可选) | 标记流程完成 |
保持线条自左向右,便于阅读与调试。
14.4 配置 LLM 节点
第一步:选择模型 DeepSeek‑V3、GPT‑4o 等
第二步:填写系统提示词
你是一名营销文案专家,请根据 {{ topic }} 生成一篇 600 字左右的文章,格式如下:
## 14.5 {{ topic }}
- 🎯 **要点一**:…
- 💡 **要点二**:…
- 🚀 **要点三**:…
**结语**:…
要求语言生动、有号召力,保持 Markdown 列表结构。
14.6 配置钉钉推送节点
第一步:设置消息内容
选择 LLM (text),也就是大语言模型返回的文章文字内容
第二步:填写 access_token
复制钉钉群机器人 Webhook 中的 access_token
第三步:填写 sign_secret
开启秘钥加签,粘贴 Secret
第四步:设置消息类型 选 Markdown,保留文章格式与 Emoji
14.6.1 附带指引:如何创建钉钉群聊机器人
第一步:下载安装钉钉手机 app + 钉钉 PC 版
注册或登录钉钉后,如果没有自己的团队,可以创建一个钉钉的团队用于测试。
第二步:创建群聊
在团队页面,先点击右上角的加号。
接着点击左上角的发起群聊。
点击修改群聊,并填写群的名称,选择内部群来测试就可以。
最后仅选择自己,点击右下角的发起群聊,就可以发起成功了。
第三步:创建群机器人
进入钉钉 PC 版,找到刚才创建的群聊,点击右上角齿轮按钮,进入群设置。
点击“机器人”。
点击“添加机器人”。
选择自定义。然后点击添加按钮。
填写机器人的名字,勾选加签,此时请记录好加签的秘钥,用于配置。勾选阅读并同意对应的服务条款,点击完成按钮。
此时机器人就添加成功了,在 Webhook 这一栏是机器人的 webhook 地址,里面包含了 access_token=xxx 这样长长的一串文本,请把等于号后面的 xxx 内容,这个就是你的 access_token,用于配置即可,请勿泄露给他人。完成后,点击完成按钮即可。
14.7 调试与发布
第一步:运行测试 点击 运行,在弹框输入示例主题:
AI 在跨境电商营销中的机会
第二步:检查预览效果 观察右侧预览:应生成带标题与 Emoji 列表的文章
第三步:验证群消息推送 检查钉钉群是否收到推送;若失败,核对 Webhook 设置
第四步:正式发布 效果满意后 发布 → 生成链接,分享给营销或运营同事
14.8 🔧 提升体验小贴士
- 模板变量:在开始节点再添加
author、date等,提示词中调用{{ author }}自动署名 - 重试策略:在钉钉节点开启“失败重试”,降低偶发网络问题影响
- 多渠道分发:同一文章可并行接入邮件、飞书或微信公众号插件,实现“一稿多发”
- 权限控制:在应用设置里赋予运营团队“运行”权限,防止误改流程
完成以上步骤后,任何人只需输入主题,即可自动获取高质量文章并群发钉钉,省去排版与发布时间,让营销更高效。
15. Workflow 千面写手:一键搞定小红书 - 朋友圈 - 博客文案
15.1 🎯 学习目标
- 使用 Workflow 并行调用多路 LLM,生成三种社媒风格文案
- 学会在 模板转换 节点用 Jinja2 聚合多段输出
- 快速预览合并结果,复制即可发布到各平台
15.2 节点流程设计
| 顺序 | 节点 | 作用 |
|---|---|---|
| 1 | 开始 | 变量 topic(必填:创作主题) |
| 2 | LLM – 小红书 | 生成种草风格文案,活泼、带 Emoji |
| 3 | LLM – 朋友圈 | 生成简短日常分享,口语化 |
| 4 | LLM – 博客 | 生成 600 字左右深度长文 |
| 5 | 模板转换 | 合并三个输出,保持分区标题 |
| 6 | 结束(可选) | 输出聚合结果 |
将开始节点连到三条 LLM 支路,三支合流至模板转换,再到结束。
15.3 配置三个 LLM 节点
第一步:设置提示词模板
| 节点 | 提示词模板(示例) |
|---|---|
| 小红书 | 请用种草风生成 150 字以内文案,包含 Emoji 与产品亮点,话题:{{ topic }} |
| 朋友圈 | 用口语写 80 字以内日常分享,主题:{{ topic }},结尾加 1 个微信表情 |
| 博客 | 请写 600 字左右博客文章,三段式结构,主题:{{ topic }},语气诙谐幽默,通俗易懂,深入浅出 |
第二步:配置上下文同步
- 同步上下文仅勾选
开始 → topic - 可使用同一模型,也可针对需求挑选不同模型版本
15.4 模板转换节点(Jinja2)
第一步:绑定变量
- 将三路 LLM 输出分别映射到
arg1arg2arg3
第二步:输入模板代码
**小红书文案**
{{ arg1 }}
---
**朋友圈文案**
{{ arg2 }}
---
**博客文章**
{{ arg3 }}
第三步:连接到结束节点
- 保存后连线至 结束 节点
15.5 调试与预览
第一步:点击运行
- 示例输入:
topic = “学习AI让我充满了活力”
第二步:检查右侧预览
- 应出现分区标题与三段文案
第三步:修复格式错位
- 检查:
- 模板中的空行与 Markdown 语法
- 变量绑定是否对应
arg1‑3
15.6 发布与使用
- 发布 → 生成链接,分享给内容团队
- 运行时输入主题即可拿到三段文案,复制粘贴到小红书 / 微信 / 博客
- 可在 访问 API 页面获取接口,集成到内部内容生成平台
15.7 🔧 小贴士
| 需求 | 做法 |
|---|---|
| 调整平台数量 | 复制 LLM 节点并在模板新增 arg4、标题区 |
| 控制字数 | 在提示词中加入“限 X 字”或 “约 X 字” |
| 批量主题 | 调用 API,循环传入主题列表批量生成 |
通过并行 LLM + 模板聚合,你就拥有一键生成多平台文案的“千面写手”,从此告别手动改写,提高内容产能与发布效率。
16. 问答投诉收集二合一:实现智能意图识别与即时推送
16.1 🎯 学习目标
- 理解 Agent 对知识库的基础调用流程
- 学会在特定意图下触发 钉钉群消息 工具
- 进阶实现投诉场景的自动识别、整理与推送
16.2 基础功能:纯知识库问答 Agent
第一步:创建空白 Agent 工作室 → 创建空白应用 → Agent → 填写名称并创建
第二步:绑定知识库 在“知识库”区点击 + 添加,选择已调优的知识库
第三步:编写基础提示词
你是企业知识助手。若问题能在知识库找到答案,请引用内容作答;否则回复“暂无相关信息”。
第四步:调试 提问「公司有哪些福利」→ 应返回知识库答案并引用片段
16.3 场景升级:福利查询 + 钉钉群消息
第一步:启用钉钉工具
在“工具”列表开启 dingtalk 发送群消息 并填入 access_token 与 sign_secret
第二步:完善提示词
当用户询问“公司福利”相关问题时:
1. 先用知识库回答
2. 将答案内容调用 dingtalk 工具发送到群里
第三步:测试 再次提问「公司福利有哪些」→ 右侧日志应显示调用 dingtalk,群聊收到福利内容
16.4 高阶实战:投诉识别与自动推送
第一步:扩展提示词
如果用户包含“投诉/抱怨/不满”等字样:
1. 提炼关键要点:投诉对象、问题描述、联系方式,如果用户描述中部分内容没有包含,则向用户确认
2. 整理成 Markdown 列表
3. 使用 dingtalk 工具发送到群(如果存在待确认的项目则先不要发送)
4. 向用户回复“已收到您的反馈,将尽快处理”
第二步:调试场景 输入「我要投诉客服态度恶劣,还挂我电话」→
- 聊天窗口回复确认
- 钉钉群收到整理后的投诉信息
16.5 🔧 优化小贴士
- 在提示词列举更多投诉关键词(差评、吐槽、不满意)提高识别率
- 针对不同意图设置不同消息模板,如加 tag
#投诉方便群内搜索
完成以上三步,你已从简单问答逐步升级到可识别投诉并自动推送的全能 Agent,为企业服务效率再提一档。
17. 可视化洞察:工作流日志分析与API对接
17.1 🎯 学习目标
- 熟练使用 日志与标注 面板排查调用记录、筛选关键问题
- 通过 标注回复 统一标准答案,降低模型成本并保持口径一致
- 获取 访问 API 凭证,调用聊天 / 工作流接口,将结果接入外部系统
17.2 历史日志:快速定位与排查
第一步:进入日志面板 应用侧栏点击 日志与标注,默认展示最近调用记录
第二步:筛选与搜索 按「时间范围 / 是否标注」过滤,或在搜索框输入关键词精准检索
第三步:查看调用详情 点开单条日志可查看用户输入、模型回复、Token 消耗、工具调用轨迹等信息,便于复现与调试
17.3 标注回复:固定统一答案
第一步:新建标注 在日志详情右下角点击 添加标注,将当前问答保存为标准回复
第二步:编辑回复内容 进入 标注 页面,可修改文本、添加 Markdown、插入引用片段
第三步:启用标注规则 开启后,同类问题命中即直接返回标注内容,不再调用模型,加速响应并节省费用
17.4 访问 API:把能力嵌入业务系统
第一步:获取 API Key 在应用侧栏点击 访问 API,生成或复制密钥,记录 Base URL
第二步:调用接口
- 聊天接口:
POST /v1/chat-messages发送问题并流式获取答案 - 运行工作流:
POST /v1/workflows/run触发流程;GET /workflows/run/{id}轮询状态与结果
# WINDOWS中执行例子,保存成一个.cmd文件,ANSI编码
curl -X POST "https://api.dify.ai/v1/workflows/run" ^
--header "Authorization: Bearer $API_KEY" ^
--header "Content-Type: application/json" ^
--data-raw "{\"inputs\": {\"topic\":\"AI 在电商的应用\"}, \"response_mode\": \"streaming\", \"user\": \"abc-123\"}"
第三步:集成示例
- IM 推送:触发工作流生成日报,待
status=succeeded后读取outputs.text字段,推送至企业 IM 群 - 数据大屏:定时调用日志 API,将 Token 使用量写入 BI 工具,制作成本监控看板
17.5 FAQ
| 疑问 | 快速排查 | 解决建议 |
|---|---|---|
| 日志列表为空 | 应用未发布或调用失败 | 发布后重试;检查 API Key 权限 |
| 标注未命中 | 关键词差异 | 在标注中补充同义词或使用正则 |
| API 返回 401 | Token 失效 / 格式错误 | 重新生成密钥,放入 Authorization: Bearer 请求头 |
| 工作流结果为空 | 查询过早 | 轮询 GET /workflows/run/{id} 直到 status=succeeded |
通过日志分析、标注管理与 API 对接三大能力,你可以先在页面可视化洞察问题,再在代码层面灵活集成,让 Dify 与业务系统实现闭环协同。
18. Dify 降本增效:你必须知道的六大秘诀
18.1 🎯 学习目标
- 系统掌握用 Dify 降低调用成本、提升整体效率 的 6 条核心技巧
- 理解每条秘诀的适用场景与落地方法,避免常见“踩坑”
- 为未来大规模上线打好成本可控、体验稳定的基础
18.2 秘诀一:善用「AI 生成」优化提示词
核心思路:让系统把“口语需求”自动升级为高质量 Prompt,少走调参弯路。
- 适用场景:初稿只有大白话或草稿提示词,效果不稳定。
- 具体做法:在提示词编辑器点击 AI 生成,输入简要需求;系统会自动补全角色、目标、格式要求与变量占位。
- 收益:平均减少 50 % 以上的手动调试轮次,Token 消耗和时间成本同步下降。
18.3 秘诀二:精调知识库「颗粒度」
核心思路:通过合理的 Chunk Size 与 Overlap,让“精准召回”与“向量数量”两端平衡。
- 适用场景:召回分数低、向量库膨胀或查询延迟高。
- 具体做法:
- 在 知识库 → 设置 → 分段策略 调整 Chunk Size(512‑768 tokens)和 Overlap(10‑25 %)。
- 用 召回测试 验证 Score;若不足 0.7,微调参数并重索引。
- 收益:向量量级最多可缩减 30 %,同时保持回答准确度。
18.4 秘诀三:严控对话历史「记忆长度」
核心思路:只保留真正必要的上下文,避免 Token 滚雪球。
- 适用场景:聊天助手连续对话导致成本飙升。
- 具体做法:
- 在助手设置将「保留轮次」设为 3‑5;对于长对话,启用“记忆窗口”。
- 对无关闲聊可设置关键词过滤,直接返回礼貌回复,跳过模型。
- 收益:对活跃用户场景可降费 40 % 以上,且回复时延更稳定。
18.5 秘诀四:巧用「内容审查(Moderation)」
核心思路:拦截恶意或无意义请求,把算力用在真正价值场景。
- 适用场景:公开产品、易被刷无关问题或敏感词。
- 具体做法:
- 在应用 内容审查 页启用敏感词检测;自定义黑名单或正则。
- 命中后直接返回预设回复,例如“抱歉,无法回答此类问题”。
- 收益:减少 10‑15 % 的无效调用,降低风险并节省模型开销。
18.6 秘诀五:选择最简化的应用架构
核心思路:能用 Prompt 解决的场景,不必搭繁琐 Workflow。
- 适用场景:单轮问答、简单多轮对话、内容生成。
- 具体做法:
- 优先创建 聊天助手,用系统提示词+变量驱动。
- 仅当需要并行任务、外部 API、条件分支时再使用 Workflow。
- 收益:减少节点维护,降低 20 % 以上的调用链路延迟与故障点。
18.7 秘诀六:活用「日志与标注」持续优化
核心思路:把高频、高耗问题标注成固定答案,持续迭代降费。
- 适用场景:客服问答、多用户公共知识库。
- 具体做法:
- 在 日志与标注 查看历史日志情况,挑选高频问题。
- 点击 标注 保存标准答案;开启后命中直接返回,无需模型。
- 收益:热门问题成本可近乎归零;同时保证回答统一、合规。
18.8 总结
- 省心靠系统:让 AI 代写 Prompt、自动审查,减人力减调参。
- 省钱靠颗粒:合理分段、裁剪上下文,把 Token 用在刀刃上。
- 省时靠监控:日志找痛点、标注做闭环,持续迭代才是王道。