🦕 旧电脑 Win7 复活计划:编译与运行 llama.cpp (Qwen3版)
这份指南专为不支持新版软件的 Windows 7 设计,通过本地编译实现大模型运行。
手动编译可以获得最好的性能,不想自己手动编译 可以直接使用下面编译好的bin文件,包含下面用到的相关软件 同时包含下面用到的相关软件和替换文件httplib.h
链接:pan.quark.cn/s/2c5f627c9…
提取码:cSJh
📋 0. 软件版本清单
请务必确保使用以下特定版本,以保证在 Win7 下的兼容性:
| 软件名称 | 文件名 (根据截图) | 作用 | 备注 |
|---|---|---|---|
| 编译环境 | w64devkit-x64-2.5.0.7z.exe | 提供 GCC 编译器 | 核心工具 |
| 构建工具 | cmake-3.31.10-windows-x86_64.msi | 生成编译配置 | 必须安装到默认路径 |
| 源码工具 | Git_for_Windows_(64bit)_v2.45.2.exe | 下载代码 | |
| 浏览器 | Firefox Setup 115.30.0esr.exe | 唯一推荐 | Win7 支持的最后版本,用于打开聊天界面 |
| 备用浏览器 | 109.0.5414.120_chrome_installer.exe | Chrome 109 | Win7 支持的最后 Chrome 版本 |
📥 第一阶段:下载代码 (使用 Git Bash)
操作环境:Windows 桌面/资源管理器
- 准备目录:建议在 C 盘根目录 下操作,路径短,不容易出错。
- 打开 Git:在 C 盘空白处右键 -> "Open Git Bash here"。
- 执行命令(请一行一行复制运行):
# 1. 克隆 llama.cpp 仓库
git clone https://github.com/ggerganov/llama.cpp.git
# 2. 进入文件夹
cd llama.cpp
# 3. 【核心步骤】切换到支持 Qwen3 的特定版本 (Tag: b5092)
git checkout b5092
# 4. 【核心步骤】替换 /examples/server/httplib.h 文件
夸克网盘自取
- 确认路径:确保代码文件夹就在
C:\llama.cpp。
🛠️ 第二阶段:准备编译环境
操作环境:w64devkit.exe 黑色终端
-
🛑 关闭杀毒软件 (Win7 必做)
- 请务必彻底退出 360、腾讯管家、金山毒霸等。
- 原因:Win7 下这些软件会拦截编译器生成的
conftest.exe等临时文件,直接导致Access Violation报错。
-
启动编译终端
- 解压
w64devkit-x64-2.5.0.7z.exe。 - 双击运行文件夹内的
w64devkit.exe。
- 解压
-
进入代码目录
- 在黑框中输入以下命令(注意路径写法):
cd /c/llama.cpp
⚙️ 第三阶段:清理与配置 (CMake)
操作环境:w64devkit.exe 黑色终端
-
清理环境 (防止旧缓存报错)
rm -f CMakeCache.txt rm -rf CMakeFiles -
生成配置文件 (Win7 专用修复版)
- 直接复制下面这行长命令运行:
"C:\Program Files\CMake\bin\cmake.exe" . -G "MinGW Makefiles" -DLLAMA_CURL=OFF -DLLAMA_BUILD_TESTS=OFF -DCMAKE_C_COMPILER=gcc -DCMAKE_CXX_COMPILER=g++- 成功标志:屏幕滚动后显示
Generating done。
🚀 第四阶段:执行编译
操作环境:w64devkit.exe 黑色终端
-
开始编译
-j4表示使用 4 线程加速,如果电脑配置极低可改为-j2。
"C:\Program Files\CMake\bin\cmake.exe" --build . --config Release -j4 -
等待完成
- 耐心等待进度条走到
[100%]。 - 编译完成后,
bin文件夹下会出现llama-server.exe。
- 耐心等待进度条走到
✅ 第五阶段:验证结果
- 检查版本
- 在当前终端输入:
./bin/llama-server.exe --version- 看到
commit d3bd719字样即为成功。
🤖 第六阶段:启动 Qwen3 模型 (Win7 专用方案)
Win7 的 CMD 窗口无法很好地显示聊天文字,必须使用浏览器模式。
准备工作
- 安装 Firefox 115 ESR (
Firefox Setup 115.30.0esr.exe)。这是 Win7 下最稳定、兼容性最好的现代浏览器。
情况 A:加载 .gguf 文件
假设模型文件在 C:\models\qwen3.gguf。
- 启动命令:
./bin/llama-server.exe -m "/c/models/qwen3.gguf" -c 4096 --host 0.0.0.0 --port 8080-c 4096: 上下文长度。如果内存大于 16G,可以设为 8192 或更高。
情况 B:加载 Ollama 缓存模型
如果你用 Ollama 下载过 Qwen3,可以直接利用它的缓存文件(无需转换)。
- 找到 Blob 文件:
- 路径:
C:\Users\你的用户名\.ollama\models\blobs - 找到最大的那个文件(例如
sha256-abc1234...)。
- 路径:
- 启动命令:
./bin/llama-server.exe -m "/c/Users/Administrator/.ollama/models/blobs/sha256-你的文件名..." -c 4096 --host 0.0.0.0 --port 8080
🌐 最后一步:开始对话
- 当黑框显示
HTTP server listening时,保持黑框开启(不要关闭)。 - 打开 Firefox 115 浏览器。
- 地址栏输入:
http://127.0.0.1:8080 - 界面加载后,即可在浏览器中与 Qwen3 流畅对话!