随着DeepSeek的火热,大模型对与广大开发者越来越触手可及。本文介绍了使用 DeepSeek R1 模型来构建本地知识库。
Ollama 管理本地模型
首先要了解大模型的管理工具 Ollama:
安装 Ollama
点击下载安装 Ollama 客户端;
安装成功后打开,在终端中输入以下命令来检查是否安装成功:
| 1 | ollama -``v |
|---|
使用 Ollama 安装本地模型
在 Ollama 支持模型:中搜索你需要的大模型
选择你需要的大模型(PS:根据电脑配置情况酌情选择对应参数🐶),执行右侧安装命令 :
ollama run deepseek-r1:7b
安装成功后查看本地存在的大模型:
ollama list |
|---|
终端运行大模型:
ollama run deepseek-r1:1.5b
到此,本地大模型安装成功。
使用 RAGFlow 构建本地知识库
安装 Docker
下载并安装 Docker 桌面端
配置 Docker 镜像源:
| 12345678910111213141516171819 | "registry-mirrors"``: [`` ``"https://docker.1ms.run"``,`` ``"https://docker-0.unsee.tech"``,1`` ``"https://docker.1panel.live"``,`` ``"https://registry.dockermirror.com"``,`` ``"https://docker.imgdb.de"``,`` ``"https://docker.m.daocloud.io"``,`` ``"https://hub.firefly.store"``,`` ``"https://hub.rat.dev"``,`` ``"https://dhub.kubesre.xyz"``,`` ``"https://cjie.eu.org"``,2`` ``"https://docker.kejilion.pro"``,`` ``"https://docker.1panelproxy.com"``,`` ``"https://docker.hlmirror.com"``,`` ``"https://hub.fast360.xyz"``,`` ``"https://dockerpull.cn"``,`` ``"https://cr.laoyou.ip-ddns.com"``,`` ``"https://docker.melikeme.cn"`` ``] |
|---|
配置 RAGFlow
RAGFlow 是一款基于深度文档理解构建的开源 RAG(Retrieval-Augmented Generation)引擎。RAGFlow 可以为各种规模的企业及个人提供一套精简的 RAG 工作流程,结合大语言模型(LLM)针对用户各类不同的复杂格式数据提供可靠的问答以及有理有据的引用。
下载RAGFlow 源码
| 1 | git clone https:``//github``.com``/infiniflow/ragflow``.git |
|---|
要求:
- CPU >= 4 cores
- RAM >= 16 GB
- Disk >= 50 GB
- Docker >= 24.0.0 & Docker Compose >= v2.26.1
配置RAGFlow环境
打开 .env 文件,根据你的电脑系统修改配置,我的是 MacOS系统
修改以下内容:
| 1234 | 1、配置RAGFlow Image:``RAGFLOW_IMAGE=infiniflow``/ragflow``:v0.17.2``2、放开MacOS系统``MACOS=1 |
|---|
| RAGFlow image tag | Image size (GB) | Has embedding models? | Stable? |
|---|---|---|---|
| v0.17.2 | ≈9 | ✔️ | Stable release |
| v0.17.2-slim | ≈2 | ❌ | Stable release |
| nightly | ≈9 | ✔️ | Unstable nightly build |
| nightly-slim | ≈2 | ❌ | Unstable nightly build |
我安装的是内嵌模型的稳定版 ragflow:v0.17.2
进入 docker 文件目录执行
| 1 | docker compose -f docker-compose.yml up -d |
|---|
过程比较久 ,耐心等候。。。。
下载成功后,查看服务启动状态
| 1 | docker logs -f ragflow-server |
|---|
如果出现以下信息,说明成功启动了
服务起来之后,打开:http://localhost:80 就可以进入了
注册登录进去(第一次注册登录的账号会默认成管理员)
选择 Ollama 添加LLM模型
这里的基础 URL 应该是本地的 IPV4 地址加端口号 11434,但是我试了本地的IP添加不成功,一直失败,经求助大佬,改成现在这个 host.docker.internal:11434。这里有清楚原因的可以评论留言,感谢。
系统模型设置:
新建本地知识库
上传本地文件解析
开始愉快的聊天吧
另外使用 Dock 配置 RAGFlow 占用电脑空间较大,内存不足者伤不起。
建议使用 AnythingLLM 这个工具来配置本地知识库。工具使用起来非常简单。
配置首选项
上传本地知识库文件:
学习
我使用PlantUML绘制了一份技能树脑图,把大模型路线分成L1到L4四个阶段,这份大模型路线大纲已经导出整理打包了,在 >gitcode ←←←←←←
L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。