DeepSeek R1打造自己的知识库

1,988 阅读2分钟

今天来讲讲,本地部署DeepSeek一个重要应用场景:搭建AI知识库。知识库的好处好处1:数据在本地电脑上,保护数据安全和个人隐私,对于企业来说尤为重要。好处2:通用大模型(比如ChatGPT)缺少垂直领域的知识,每次前提问都需要提供背景信息,上传相关资料,才可以得到相对高质量回答。而本地模型+知识库的模式,简单的提问就可以很容易得到垂直定制化,且精准的高质量回答。好处3:使用时间越长,知识库越丰富,回答质量越高,形成正循环。好处4:不需要联网,即使官方宕机甚至断网也能正常使用。安装DifyDify是一个快速搭建AI应用的项目,支持创建AI聊天机器人、自动化客服等。本篇主要讲解如何用Dify搭建私人化知识库。本地找一个不含中文的目录,进入CMD窗口,执行命令,下载Dify项目。

git clone https://github.com/langgenius/difycd dify/docker# .env.example复制,并重命名为 .envcopy .env.example .env

.env是dify的配置文件,保持默认配置就好了。启动docker,执行命令运行dify。

docker compose up -d

图片图片 项目启动以后,浏览器访问:http://127.0.0.1/apps/ 首次进入需要设置管理员账号,并且登录进入系统。图片 Dify配置分为2个步骤:添加模型和添加知识库。页面右上角头像> -> 设置 -> 模型供应商,下拉找到Ollama,【添加模型】。图片参数如下:

模型类型:LLM

模型名称:deepseek-r1:7b (根据电脑配置选择1.5b/7b/8b/32b等)

基础URL:host.docker.internal:11434

其他参数默认。图片配置向量化模型【Nomic-Embed-Text】,它具备强大的长上下文处理能力。下载命令:

ollama pull nomic-embed-text

图片同样的方式,在Ollama下添加模型,参数如下:

模型类型:Text Embedding

模型名称:nomic-embed-text:latest

基础URL:host.docker.internal:11434

其他参数默认。图片

保存以后,即可完成2个模型的添加。

结果如下图:

图片配置2个大模型以后,开始配置【知识库】。回到首页,切换到【知识库】菜单,创建知识库。图片数据源有3种:导入已有文件、同步自Notion内容、同步自Web内容。这次搭建的是本地离线知识库,选第1个,导入准备好的知识库材料,【下一步】。检索设置选【混合检索】,其他参数不变,保存并处理。图片图片稍等一会,知识库就设置完成了。使用知识库知识库建好了,怎么用呢?回到首页,切换到【工作室】菜单,点击【创建空白应用】。应用类型选【聊天助手】,应用名称和图标,根据自己需要填写。图片点击【创建】,下方的上下文栏,就是设置知识库的地方。点【添加】,在弹窗上,选择刚刚创建的知识库。图片图片设置完成以后,就可以发布使用了。右上角【发布】-> 【更新】-> 【运行】。图片运行以后,页面自动跳转到对话页面,一个自带知识库的AI聊天助手就完成啦。来测试下。大模型有一个特点:没有自我意识,对自己不了解。提一个问题:what is DeepSeek V3?图片官方的回答就非常简单,而包含DeepSeek V3论文知识库的本地模型,它的回答就非常准确详细,即使这个问题很简单,不联网搜索。