Dify构建知识库

518 阅读3分钟

Dify介绍

Dify 是一个开源的 LLM 应用开发平台。其直观的界面结合了 AI 工作流、RAG 管道、Agent、模型管理、可观测性功能等,让您可以快速从原型到生产。

核心功能

1. 工作流: 在画布上构建和测试功能强大的 AI 工作流程,利用以下所有功能以及更多功能。

2. 全面的模型支持: 与数百种专有/开源 LLMs 以及数十种推理提供商和自托管解决方案无缝集成,涵盖 GPT、Mistral、Llama3 以及任何与 OpenAI API 兼容的模型。

3. Prompt IDE: 用于制作提示、比较模型性能以及向基于聊天的应用程序添加其他功能(如文本转语音)的直观界面。

4. RAG Pipeline: 广泛的 RAG 功能,涵盖从文档摄入到检索的所有内容,支持从 PDF、PPT 和其他常见文档格式中提取文本的开箱即用的支持。

5. Agent 智能体: 您可以基于 LLM 函数调用或 ReAct 定义 Agent,并为 Agent 添加预构建或自定义工具。Dify 为 AI Agent 提供了 50 多种内置工具,如谷歌搜索、DALL·E、Stable Diffusion 和 WolframAlpha 等。

6. LLMOps: 随时间监视和分析应用程序日志和性能。您可以根据生产数据和标注持续改进提示、数据集和模型。

7. 后端即服务: 所有 Dify 的功能都带有相应的 API,因此您可以轻松地将 Dify 集成到自己的业务逻辑中。

内容来自:github.com/langgenius/…

功能比较

功能Dify.AILangChainFlowiseOpenAI Assistant API
编程方法API + 应用程序导向Python 代码应用程序导向API 导向
支持的 LLMs丰富多样丰富多样丰富多样仅限 OpenAI
RAG引擎
Agent
工作流
可观测性
企业功能(SSO/访问控制)
本地部署

Dify部署

系统要求

在安装 Dify 之前,请确保您的机器满足以下最低系统要求:

CPU >= 2 Core

RAM >= 4 GiB

Docker部署

Dify提供了云服务和自托管部署。自托管有多种方式,本文使用Docker方式部署。

  • 下载源码
git clone https://github.com/langgenius/dify.git

如果网络不支持git方式,就Download ZIP:

然后到源码目录,执行:

cd dify-main/docker
cp .env.example .env
docker compose up -d

docker compose up -d执行完毕后,访问http://localhost/install:

注册用户

访问登陆界面,设置管理员账户: 填写必要信息后,点击“设置”: 点击“登陆”:

模型配置

点击“账户”--->“设置”: 点击“模型供应商”: 选一个大模型平台,点击“安装”: 再次确认并安装: 插件安装完毕后,插件会出现在待配置列表中: 点击插件的“设置”: 填写大模型平台的API Key:

将获取的key填入,点击“保存”: 保存后: 到此,大模型配置完成。

知识库

大模型配置完毕后,按“ESC”或点击如图按钮: 回到工作界面: 点击“知识库”--->“创建知识库”: 选择数据源: 上传一个文档,点击“下一步”: 文本分段与清洗参数设置,点击“保存并处理”:

没有特殊要求,保持默认即可。

等待处理完成: 处理完毕后,点击“前往文档”: 此时,文档状态已为“可用”:

点击“召回测试”,输入问题,返回内容: 到此,Dify的知识库创建就完成了。

关于知识库如何使用,请关注后续更新~~~

本文在微信公众号“De-仓鼠”同步发布