系列目标:30 天从 LangChain 入门到企业级部署
今日任务:安装 Ollama → 下载中文大模型(Qwen / Llama3-Chinese)→ 用 LangChain 调用本地模型!
🌍 一、为什么今天要切换到本地模型?
在 Day 1 中,我们使用了 OpenAI 的 API。但很多国内开发者面临:
- 无法访问 OpenAI
- API 费用高
- 数据隐私顾虑(不能把公司文档发给国外 API)
好消息是:LangChain 完全支持本地开源大模型!只要配合 Ollama,你就能在笔记本上免费运行 Qwen、Llama3、Phi3 等强大模型,且完全离线、支持中文!
🐳 二、安装 Ollama(1 分钟)
Ollama 是一个超轻量的大模型运行工具,一键启动 LLM 服务。
1. 下载安装
- 官网:ollama.com/
- 支持 macOS / Windows / Linux
- 安装后自动启动后台服务(默认监听
http://localhost:11434)
2. 验证安装
打开终端,输入:
ollama --version
看到版本号即表示安装成功 ✅
📥 三、下载中文大模型(推荐两个)
Ollama 支持一键拉取模型。以下是两个对中文友好的选择:
| 模型 | 命令 | 特点 |
|---|---|---|
| Qwen:7b(通义千问) | ollama pull qwen:7b | 阿里出品,中文理解强,适合问答 |
| Llama3-Chinese | ollama pull llama3:8b-instruct-q6_K | Meta 原版 + 中文微调,通用性强 |
💡 首次运行会自动下载(约 4–6 GB),建议使用稳定网络。
可通过ollama list查看已安装模型。
✅ 推荐新手先用 qwen:7b,中文效果更稳!
# 下载通义千问 7B(中文优化版)
ollama pull qwen:7b
🔌 四、用 LangChain 调用本地模型!
现在,我们不再依赖 OpenAI,而是通过 Ollama 提供的本地 API 调用模型。
1. 安装 LangChain 的 Ollama 支持包
pip install langchain-ollama
⚠️ 注意:这是 LangChain 官方维护的新包(2024 年推出),替代旧的
ChatOllama写法。
2. 编写代码:调用 Qwen 本地模型
# day2_local_llm.py
from langchain_ollama import ChatOllama
# 初始化本地 LLM(默认连接 http://localhost:11434)
llm = ChatOllama(
model="qwen:7b", # 使用刚下载的模型
temperature=0.7, # 创造力(0~1)
timeout=300, # 超时时间(秒)
)
# 发送中文提问
response = llm.invoke("请用一句话介绍杭州西湖,并用 emoji 表情点缀。")
print(response.content)
▶️ 运行结果(示例):
杭州西湖如诗如画,湖光山色间 🌸🌿🏯,被誉为“人间天堂”!
✅ 完全离线!无需网络!支持中文!而且免费!
🔁 五、对比:OpenAI vs Ollama(LangChain 写法差异)
| 功能 | OpenAI(Day 1) | Ollama(Day 2) |
|---|---|---|
| 安装包 | langchain-openai | langchain-ollama |
| 初始化 | ChatOpenAI(model="gpt-3.5-turbo") | ChatOllama(model="qwen:7b") |
| 是否需要 API Key | ✅ 需要 | ❌ 不需要 |
| 是否联网 | ✅ 需要 | ❌ 完全离线 |
| 中文支持 | 一般(需提示) | 优秀(模型原生支持) |
💡 小技巧:你可以在代码中通过配置轻松切换模型,后续我们会教你怎么做“模型抽象层”。
🛠️ 六、常见问题 & 解决方案
| 问题 | 原因 | 解决方法 |
|---|---|---|
ConnectionError: Failed to connect to localhost:11434 | Ollama 未启动 | 重启 Ollama 应用(Mac/Win 点击图标即可) |
| 模型响应慢 | 电脑内存不足(<16GB) | 改用更小模型,如 qwen:1.8b 或 phi3:mini |
| 输出乱码或英文 | 模型未针对中文优化 | 优先使用 qwen:7b 或 llama3-chinese |
ModuleNotFoundError: langchain_ollama | 未安装新包 | pip install langchain-ollama |
💡 低配电脑建议:
ollama pull qwen:1.8b # 仅需 ~2GB 内存
📝 七、今日小结
- ✅ 安装了 Ollama,本地运行大模型
- ✅ 下载了中文友好的
qwen:7b模型 - ✅ 用 LangChain 成功调用本地 LLM,完全离线!
- ✅ 掌握了
langchain-ollama的基本用法