方案一:配置国内镜像加速(最推荐)
这是最根本的解决方法,通过配置环境变量,让 Ollama 从国内镜像站(如魔搭社区 modelscope)下载模型,速度非常快-4。
Windows 系统配置步骤:
-
打开环境变量设置
- 在 Windows 搜索框输入“编辑系统环境变量”并打开。
- 点击“环境变量”按钮。
-
新建系统变量
-
在“系统变量”区域,点击“新建”。
-
填写以下信息:
- 变量名:
OLLAMA_HF_MIRROR - 变量值:
https://modelscope.cn
- 变量名:
-
点击“确定”保存。
-
-
重启 Ollama 服务
- 完全退出 Ollama(右键点击系统托盘中的 Ollama 图标,选择
Quit)。 - 重新打开命令提示符或 PowerShell,运行
ollama run qwen3:1.7b,下载速度应该会有明显提升-4。
- 完全退出 Ollama(右键点击系统托盘中的 Ollama 图标,选择
macOS / Linux 用户:在终端执行以下命令后重启 Ollama 即可。
bash
复制下载
echo 'export OLLAMA_HF_MIRROR=https://modelscope.cn' >> ~/.zshrc source ~/.zshrc
⬇️ 方案二:使用多线程下载器手动下载(备用方案)
如果配置镜像后仍然觉得速度不理想,或者希望获得更稳定的下载体验,可以“曲线救国”——用迅雷、IDM 或 aria2c 这类支持多线程的下载工具来获取模型文件,速度能提升 3-5 倍-1-3。
操作步骤:
-
获取模型的真实下载链接
-
你可以使用一个开源工具
omdd来获取 Ollama 模型的真实下载地址-9。 -
在 GitHub 上搜索
omdd下载对应你系统的版本后,在终端运行:bash
复制下载
omdd-windows-amd64.exe get qwen3:1.7b -
命令执行后会输出一个或多个形如
https://ollama.com/library/qwen3:1.7b/...的链接。
-
-
使用下载工具下载
- 将获取到的链接复制到迅雷、IDM 或 aria2c 等工具中。
- 由于这些工具支持多线程下载,模型文件很快就能下载完成。
-
将模型文件交给 Ollama
qwen3:1.7b模型文件很小,通常会在下载完成后由 Ollama 自动处理。如果手动下载的是一个.tar或.ollama文件,可以把它放到 Ollama 的模型存储目录(通常是C:\Users\你的用户名.ollama\models)下,Ollama 会自动识别-7。
🔍 顺便检查一下
如果配置了镜像后下载速度有明显改善,那就说明网络是唯一原因。如果还是很慢,可以顺便确认一下你的磁盘剩余空间是否充足(建议至少预留 5GB),以及网络连接是否稳定-1-3。
建议你先试试方案一,由于 qwen3:1.7b 模型本身只有 1GB 左右,配置镜像后下载应该很快就能完成。如果镜像站速度不理想,再用方案二的多线程下载兜底。