【AI技术栈】dify+ragflow+ollama构建个人知识库

1 阅读4分钟

【AIGC】dify+ragflow+ollama构建个人知识库


一、给ragflow配置大模型

注意,slim版没有预装模型,full版有预装。缺少模型就在下面添加引用。 在这里插入图片描述 在这里插入图片描述 普通机器推荐安装以下两个模型: 在这里插入图片描述 具体安装的模型名称和版本,参考ollama官网提供的模型参数: 在这里插入图片描述

如果dify在docker里,ollama在docker外,则参考这个地址引用ollama模型:http://host.docker.internal:11434

二、数据入库

1.在ragflow中,进行知识入库配置

根据不同的文件类型,可以选择不同的模型和切片方法。

在这里插入图片描述 尽量开启知识图谱检索,会显著提升检索效果。 在这里插入图片描述

2.数据入库解析

导入数据,确保解析状态为成功,即可进行检索。 在这里插入图片描述

三、将ragflow关联到dify

1.到ragflow中获取秘钥

在这里插入图片描述 在这里插入图片描述 点击创建新秘钥,并复制出来。

2.到dify中关联外部知识库api

在这里插入图片描述 将刚刚获取的秘钥输入进来 其中endpoint填写ragflow的访问地址+/api/v1/dify 在这里插入图片描述

3.到ragflow中获取知识库id

在这里插入图片描述

4.在dify中链接外部知识库

在这里插入图片描述 填入刚刚获取的知识库id,并输入名称和描述。 在这里插入图片描述

四、在dify工作流中引用知识库

添加知识库引用。 在这里插入图片描述 如果没有绑定rerank模型,导入知识库后需要关闭这个功能。 在这里插入图片描述

五、输出回答效果优化

1.提升大模型level

尽量选择更智能的LLM,并通过提示词严格限制不能杜撰虚构。 在这里插入图片描述

2.工作流的形式做分类处理

  • 面向不同的文件和内容
  • 区分简单检索和理解性工作
  • 区分需要二次加工的数据(例如语音和图文)
  • 区分不同的主题来检索不同的知识库,或组合检索。

3.模板化输出

让大模型输出回答和引用内容,帮助用户确认回答的准确性。 在这里插入图片描述