本地部署 Dify + Deepseek (实操版)

2,681 阅读1分钟

安装docker

Docker 官网下载 对应系统的docker

下载后直接安装 Docker 客户端,并登录

安装 Ollama

下载安装 Ollama ,安装好后会有个小图标,安装模型需要运行 Ollama

安装 deepseek 模型

根据自己的电脑配置选择合适的 deepseek 模型

我的电脑配置是 mac m2 8+256,选择的是 1.5b 的模型 ollama.com/library/dee…

复制旁边的指令,在终端运行安装模型,安装完成后可以直接提问了

安装 dify

github.com/langgenius/…,下载并安装zip文件,解压缩到指定目录

修改 dify\docker 下的 middleware.env.example (window 中没有 middleware这个前缀) 文件名改为 .middleware.env,并编辑在末尾添加以下配置项

# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Ollama 的 api 地址(根据部署环境调节)
OLLAMA_API_BASE_URL=host.docker.internal:11434

dify\docker 下终端执行

docker compose up -d

安装没问题后,可以看到 docker 已经跑起来了,打开 http://127.0.0.1/install

截屏2025-02-08 14.35.12.png

设置管理员信息

截屏2025-02-08 14.35.37.png

设置默认模型,使用前面安装的 deepseek-r1:1.5b

截屏2025-02-08 16.04.56.png

截屏2025-02-08 16.06.27.png

创建应用

截屏2025-02-08 16.05.35.png

在应用内提问,用的就是 deepseek 模型了

image.png

创建知识库,创建一个员工手册,导入

截屏2025-02-08 16.11.58.png

无法选择高质量,需要安装 Embedding 模型。

安装 ollama.com/library/bge… 复制命令在终端安装,安装后可以使用高质量,不安装也可以使用

提问时将员工手册作为上下文,这个时候已经是引用了上传的员工手册做的回答

image.png

至此,本地部署 dify + deepseek + 知识库 已完成