最近发现了一套超级实用的本地AI开发组合——Ollama+Dify,今天就把我的搭建过程整理成保姆级教程分享给大家,包含我踩过的所有坑和解决方案!
一、为什么选择这个组合?
- Ollama优势
- 🚀 一键运行各种开源大模型(Llama2/Mistral等)
- 💻 完全本地运行,数据不出门
- 🔧 支持CPU/GPU加速
- Dify亮点
- 🎨 可视化Prompt工程
- 🔌 多模型统一接口
- 🛠️ 快速构建AI应用
💡 个人体验:这个组合特别适合想做AI应用开发但又担心数据隐私的开发者,我的几个小项目都是基于这个环境开发的。
二、搭建准备(避坑重点)
硬件要求
| 配置项 | 最低要求 | 推荐配置 |
|---|---|---|
| 内存 | 8GB | 16GB+ |
| 存储 | 50GB | 100GB+ |
| 显卡 | 集成显卡 | NVIDIA显卡 |
软件环境
检查Docker是否安装
docker --version
检查Python版本
python3 --version
⚠️ 踩坑记录:
- Windows用户务必安装WSL2(微软官方教程)
- Docker内存建议分配至少8GB(在Docker Desktop设置中调整)
- 国内用户建议配置镜像加速
三、Ollama安装实战
1. 一键安装
Linux/macOS
curl -fsSL ollama.com/install.sh | sh
Windows用户直接下载exe安装包
- 模型下载(国内加速方案)
使用国内镜像源(建议)
export OLLAMA_HOST=镜像地址
常用模型
ollama pull llama2 # 基础版
- 启动测试
ollama run llama2 "用中文回答:机器学习是什么?"
四、Dify部署详解
-
快速部署
git clone gitee.com/langgenius/… # 国内用gitee
cd dify
cp .env.example .env -
关键配置修改
.env文件重点配置
OLLAMA_API_BASE_URL=host.docker.internal:11434
DB_PASSWORD=your_strong_password # 一定要改!
- 启动服务
docker-compose up -d
查看日志(遇到问题首先看日志)
docker-compose logs -f api
🛠️ 常见问题解决:
- 端口冲突:修改docker-compose.yml中的端口映射
- 内存不足:调整docker资源限制
- 下载慢:更换国内镜像源
- Dify无法配置本地的模型ollama, 此时需要将dify的插件docker单独重启
五、整合实战
-
Dify界面操作
-
登录(默认admin/password)
-
【设置】→【模型供应商】→添加Ollama
-
创建第一个应用
-
点击"新建应用"
-
选择"对话型"
-
模型选择Ollama-llama2
-
输入系统Prompt:
"你是一个AI助手,请用中文回答,语气亲切自然" -
API调用示例
import requests
url = "http://localhost/api/v1/chat-messages"
headers = {
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
}
data = {
"inputs": {},
"query": "Python怎么实现快速排序?",
"response_mode": "blocking"
}
response = requests.post(url, json=data, headers=headers)
print(response.json())
七、实际应用案例
-
本地知识问答系统
-
上传PDF/Word文档到Dify
-
构建RAG流程
-
部署为Web应用
-
自动化编程助手
结合GitHook实现代码审查
pre-commit run --all-files
八、总结与资源
成功标志:
- Ollama能稳定运行模型
- Dify可以正常调用API
- 响应速度<5秒(8B模型)
推荐资源:
大家在搭建过程中遇到什么问题?欢迎评论区交流!如果遇到报错,记得贴出完整错误日志哦~