使用Ollama+Dify搭建本地AI开发环境全攻略(避坑指南)

537 阅读3分钟

最近发现了一套超级实用的本地AI开发组合——Ollama+Dify,今天就把我的搭建过程整理成保姆级教程分享给大家,包含我踩过的所有坑和解决方案!

 一、为什么选择这个组合?
  1. Ollama优势
  • 🚀 一键运行各种开源大模型(Llama2/Mistral等)
  • 💻 完全本地运行,数据不出门
  • 🔧 支持CPU/GPU加速
  1. Dify亮点
  • 🎨 可视化Prompt工程
  • 🔌 多模型统一接口
  • 🛠️ 快速构建AI应用

💡 个人体验:这个组合特别适合想做AI应用开发但又担心数据隐私的开发者,我的几个小项目都是基于这个环境开发的。

二、搭建准备(避坑重点)

硬件要求

配置项最低要求推荐配置
内存  8GB      16GB+    
存储  50GB    100GB+  
显卡  集成显卡NVIDIA显卡

 软件环境
检查Docker是否安装
docker --version
检查Python版本
python3 --version

⚠️ 踩坑记录:

  1. Windows用户务必安装WSL2(微软官方教程)
  2. Docker内存建议分配至少8GB(在Docker Desktop设置中调整)
  3. 国内用户建议配置镜像加速
 三、Ollama安装实战

 1. 一键安装
Linux/macOS
curl -fsSL ollama.com/install.sh | sh

Windows用户直接下载exe安装包

  1. 模型下载(国内加速方案)

使用国内镜像源(建议)

export OLLAMA_HOST=镜像地址

常用模型

ollama pull llama2  # 基础版

  1. 启动测试
    ollama run llama2 "用中文回答:机器学习是什么?"
四、Dify部署详解
  1. 快速部署
    git clone gitee.com/langgenius/…  # 国内用gitee
    cd dify
    cp .env.example .env

  2. 关键配置修改

.env文件重点配置

OLLAMA_API_BASE_URL=host.docker.internal:11434
DB_PASSWORD=your_strong_password  # 一定要改!

  1. 启动服务
    docker-compose up -d

查看日志(遇到问题首先看日志)

docker-compose logs -f api

🛠️ 常见问题解决:

  • 端口冲突:修改docker-compose.yml中的端口映射
  • 内存不足:调整docker资源限制
  • 下载慢:更换国内镜像源

- Dify无法配置本地的模型ollama, 此时需要将dify的插件docker单独重启

五、整合实战
  1. Dify界面操作

  2. 访问 http://localhost:3000

  3. 登录(默认admin/password)

  4. 【设置】→【模型供应商】→添加Ollama

  5. 创建第一个应用

  6. 点击"新建应用"

  7. 选择"对话型"

  8. 模型选择Ollama-llama2

  9. 输入系统Prompt:
    "你是一个AI助手,请用中文回答,语气亲切自然"

  10. API调用示例
    import requests

url = "http://localhost/api/v1/chat-messages"
headers = {
"Authorization": "Bearer your-api-key",
"Content-Type": "application/json"
}
data = {
"inputs": {},
"query": "Python怎么实现快速排序?",
"response_mode": "blocking"
}

response = requests.post(url, json=data, headers=headers)
print(response.json())

七、实际应用案例
  1. 本地知识问答系统

  2. 上传PDF/Word文档到Dify

  3. 构建RAG流程

  4. 部署为Web应用

  5. 自动化编程助手

结合GitHook实现代码审查

pre-commit run --all-files

八、总结与资源

成功标志:

  • Ollama能稳定运行模型
  • Dify可以正常调用API
  • 响应速度<5秒(8B模型)

推荐资源:

  1. Ollama官方文档
  2. Dify中文论坛
  3. 模型下载加速站

大家在搭建过程中遇到什么问题?欢迎评论区交流!如果遇到报错,记得贴出完整错误日志哦~