🌟 LangChain 30 天保姆级教程 · Day 2 用 Ollama + Qwen 在本地免费运行 LangChain

2 阅读3分钟

系列目标:30 天从 LangChain 入门到企业级部署
今日任务:安装 Ollama → 下载中文大模型(Qwen / Llama3-Chinese)→ 用 LangChain 调用本地模型!


🌍 一、为什么今天要切换到本地模型?

在 Day 1 中,我们使用了 OpenAI 的 API。但很多国内开发者面临:

  • 无法访问 OpenAI
  • API 费用高
  • 数据隐私顾虑(不能把公司文档发给国外 API)

好消息是:LangChain 完全支持本地开源大模型!只要配合 Ollama,你就能在笔记本上免费运行 Qwen、Llama3、Phi3 等强大模型,且完全离线、支持中文


🐳 二、安装 Ollama(1 分钟)

Ollama 是一个超轻量的大模型运行工具,一键启动 LLM 服务。

1. 下载安装

  • 官网:ollama.com/
  • 支持 macOS / Windows / Linux
  • 安装后自动启动后台服务(默认监听 http://localhost:11434

2. 验证安装

打开终端,输入:

ollama --version

看到版本号即表示安装成功 ✅


📥 三、下载中文大模型(推荐两个)

Ollama 支持一键拉取模型。以下是两个对中文友好的选择:

模型命令特点
Qwen:7b(通义千问)ollama pull qwen:7b阿里出品,中文理解强,适合问答
Llama3-Chineseollama pull llama3:8b-instruct-q6_KMeta 原版 + 中文微调,通用性强

💡 首次运行会自动下载(约 4–6 GB),建议使用稳定网络。
可通过 ollama list 查看已安装模型。

推荐新手先用 qwen:7b,中文效果更稳!

# 下载通义千问 7B(中文优化版)
ollama pull qwen:7b

🔌 四、用 LangChain 调用本地模型!

现在,我们不再依赖 OpenAI,而是通过 Ollama 提供的本地 API 调用模型。

1. 安装 LangChain 的 Ollama 支持包

pip install langchain-ollama

⚠️ 注意:这是 LangChain 官方维护的新包(2024 年推出),替代旧的 ChatOllama 写法。

2. 编写代码:调用 Qwen 本地模型

# day2_local_llm.py
from langchain_ollama import ChatOllama

# 初始化本地 LLM(默认连接 http://localhost:11434)
llm = ChatOllama(
    model="qwen:7b",      # 使用刚下载的模型
    temperature=0.7,      # 创造力(0~1)
    timeout=300,          # 超时时间(秒)
)

# 发送中文提问
response = llm.invoke("请用一句话介绍杭州西湖,并用 emoji 表情点缀。")
print(response.content)

▶️ 运行结果(示例):

杭州西湖如诗如画,湖光山色间 🌸🌿🏯,被誉为“人间天堂”!

✅ 完全离线!无需网络!支持中文!而且免费!


🔁 五、对比:OpenAI vs Ollama(LangChain 写法差异)

功能OpenAI(Day 1)Ollama(Day 2)
安装包langchain-openailangchain-ollama
初始化ChatOpenAI(model="gpt-3.5-turbo")ChatOllama(model="qwen:7b")
是否需要 API Key✅ 需要❌ 不需要
是否联网✅ 需要❌ 完全离线
中文支持一般(需提示)优秀(模型原生支持)

💡 小技巧:你可以在代码中通过配置轻松切换模型,后续我们会教你怎么做“模型抽象层”。


🛠️ 六、常见问题 & 解决方案

问题原因解决方法
ConnectionError: Failed to connect to localhost:11434Ollama 未启动重启 Ollama 应用(Mac/Win 点击图标即可)
模型响应慢电脑内存不足(<16GB)改用更小模型,如 qwen:1.8b 或 phi3:mini
输出乱码或英文模型未针对中文优化优先使用 qwen:7b 或 llama3-chinese
ModuleNotFoundError: langchain_ollama未安装新包pip install langchain-ollama

💡 低配电脑建议

ollama pull qwen:1.8b  # 仅需 ~2GB 内存

📝 七、今日小结

  • ✅ 安装了 Ollama,本地运行大模型
  • ✅ 下载了中文友好的 qwen:7b 模型
  • ✅ 用 LangChain 成功调用本地 LLM,完全离线!
  • ✅ 掌握了 langchain-ollama 的基本用法