【本地化部署】Dify大语言模型(LLM)应用开发平台+本地RAG知识库

362 阅读4分钟

本文较长建议点赞收藏。更多AI大模型开发 学习视频/籽料/面试题 可参考>>Github<<

本地部署大语言模型并非易事,它涉及复杂的模型管理、知识库搭建及系统集成等技术挑战。本文将为你提供一份详细的“小白教程”,手把手教你如何在本地环境中部署Dify开源平台,并结合本地RAG知识库,打造属于你自己的智能体工作流。

01丨部署目标

实现本地部署跑通大模型+本地知识库搭建的本地智能体(工作流),需完成以下三部分:

本地部署大语言模型(以DeepSeek R1-7B为例)。

部署Dify开源平台(需安装Docker启动)。

Dify平台+Embedding模型(实现知识库功能)。

第一部分:本地部署大语言模型

以DeepSeek R1-7B为例,通过Ollama工具进行本地部署:

启动Ollama服务:确保Ollama已安装并运行(访问 http://localhost:11434 验证)。

拉取模型:在命令行执行 ollama pull deepseek-r1:7b。

验证模型:通过 ollama list 查看已安装模型,或访问 http://localhost:11434 确认服务状态。

第二部分:部署Dify开源平台

安装Docker:确保Docker已安装并启动。

启动Dify平台:通过Docker命令或脚本部署Dify,访问本地地址 http://localhost/apps。

接入大模型:Dify支持两种方式接入模型:

路径:设置 -> 模型提供商 -> 选择“Ollama”。

添加模型:

保存后即可使用本地模型(无需消耗Token)。

模型名称:deepseek-r1:7b(需与本地部署版本一致)。

内网地址:http://localhost:11434。

路径:设置 -> 模型提供商 -> 选择“深度求索”。

填写API Key(需在DeepSeek官网注册并充值获取)及自定义API地址 api.deepseek.com/v1。

方式一(API+密钥):

去deepseek官网(DeepSeek开放平台platform.deepseek.com/sign_in) 获取密钥即可

秘钥填写后,模型就可使用了

方式二(本地Ollama):

路径:设置 -> 模型提供商 -> 选择“Ollama”

添加模型:找到ollama,点击“添加模型”

输入模型名称 deepseek-r1:7b(本地安装的什么版本,这里就填写你本地部署的版本),以及内网地址:http://localhost:11434, 然后点击“保存”即可完成添加,可使用本地模型(无需消耗Token)。

第三部分:Dify平台+Embedding模型

安装Embedding模型:

创建本地的知识库,需要用到Embedding 模型,推荐使用性能较高的 bge-m3 模型,命令行执行 ollama pull bge-m3:latest

安装完成

拓展:

打开cmd后输入:查看命令ollama –version

查看模型仓库:ollama list

显示模型信息: ollama show

在cmd中去拉模型: ollama pull 模型名称

删除模型:ollama rm 模型名称

测试ollama运行状态:http://localhost:11434 (访问网址)出现Ollama is running即使正在运行,如果连接打不开就是没在运行。

配置知识库模型:

路径:设置 -> Embedding模型

添加Embedding模型:输入模型名称bge-m3:latest(本地安装的什么版本,这里就填写你本地部署的版本,我本地安装的是bge-m3),内网地址:http://localhost:11434, 点击“保存”即可完成添加,可在知识库中调用。

ollama添加完成模型的效果

系统模型设置:

最后一步,点击“系统模型设置”将系统推理模型和Embedding模型分别选择本地安装的模型就可以了。

以上步骤完成后,那么本地部署的dify与本地部署的大模型(推理模型+知识库模型)就配置完了。接下来可以做测试验证。

02丨测试与验证

上传文件:在知识库中上传测试文件,验证Embedding模型的处理能力。

在已创建的智能体中加上知识库

提问测试:在智能体中输入问题,观察是否结合知识库内容生成回答。

AI大模型开发 学习视频/籽料/面试题 学习文档 详细内容可参考>>Github<<