2026年了,如果你还在手写Prompt管理、向量数据库、工作流编排,那你肯定还没用过 Dify。
Dify 是一个开源 LLMOps 平台,让你不写一行后端代码就能搭建完整的 AI 应用。
环境准备
# Docker 一键部署(推荐)
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
docker compose up -d
访问 http://localhost 就进去了。首次使用设置管理员账号。
核心概念(5分钟搞懂)
应用类型:
- 聊天助手 — 多轮对话,适合客服 / 问答
- 文本生成 — 单次输入输出,适合翻译 / 总结
- Agent — 能调用工具,适合自动化任务
- 工作流 — 可视化编排,适合复杂业务流程
知识库: 上传你的文档(PDF/Word/Markdown),Dify自动向量化,让AI基于你的数据回答。
工具: 内置 Google Search / 代码执行 / HTTP请求等,Agent模式可以按需调用。
实战:搭建一个智能客服
Step 1: 创建知识库,导入产品手册 PDF Step 2: 创建"聊天助手"应用,关联知识库 Step 3: 配置模型(GPT-5 / Claude 4 / Gemini 2.5 Pro 都支持)
写个 Prompt:
你是智能客服,基于知识库回答用户关于产品的问题。
如果知识库中没有答案,请如实告知并建议联系人工客服。
回答要简洁,不超过200字。
Step 4: 点击发布,得到一个 API 端点 + 内嵌页面。
# 直接调 API
import requests
response = requests.post(
"https://your-dify/v1/chat-messages",
headers={"Authorization": "Bearer app-xxx"},
json={
"inputs": {},
"query": "怎么退款?",
"user": "user-123"
}
)
print(response.json()["answer"])
10分钟搞定一个智能客服,这就是低代码的力量。
进阶:工作流模式
处理复杂业务用工作流。比如"简历筛选":
- 文档提取 → 2. LLM提取关键信息 → 3. 条件分支(经验>=3年?) → 4. LLM深度评估 → 5. 输出打分
全程拖拽配置,不用写代码。
模型接入
Dify 支持 OpenAI 兼容接口,配置模型供应商时填入 API Key 和 Base URL 就行:
API Base URL: https://your-endpoint/v1
API Key: sk-your-key
GPT-5、Claude 4、Gemini 2.5 Pro 全部支持,哪个便宜用哪个。
总结
| 传统开发 | Dify |
|---|---|
| 手写API集成 | 可视化配置 |
| 自己搭向量库 | 一键上传文档 |
| 硬编码Prompt | 在线调试迭代 |
| 前端后全部自己写 | 生成内嵌页面+API |
对于 POC 验证、内部工具、快速原型,Dify 的效率提升是数量级的。
官方文档:docs.dify.ai,源码在 GitHub langgenius/dify,Star 已经 80K+ 了。