Ollama下载Qwen模型

2 阅读2分钟

方案一:配置国内镜像加速(最推荐)

这是最根本的解决方法,通过配置环境变量,让 Ollama 从国内镜像站(如魔搭社区 modelscope)下载模型,速度非常快-4

Windows 系统配置步骤:

  1. 打开环境变量设置

    • 在 Windows 搜索框输入“编辑系统环境变量”并打开。
    • 点击“环境变量”按钮。
  2. 新建系统变量

    • 在“系统变量”区域,点击“新建”。

    • 填写以下信息:

      • 变量名OLLAMA_HF_MIRROR
      • 变量值https://modelscope.cn
    • 点击“确定”保存。

  3. 重启 Ollama 服务

    • 完全退出 Ollama(右键点击系统托盘中的 Ollama 图标,选择 Quit)。
    • 重新打开命令提示符或 PowerShell,运行 ollama run qwen3:1.7b,下载速度应该会有明显提升-4

macOS / Linux 用户:在终端执行以下命令后重启 Ollama 即可。

bash

复制下载

echo 'export OLLAMA_HF_MIRROR=https://modelscope.cn' >> ~/.zshrc
source ~/.zshrc

⬇️ 方案二:使用多线程下载器手动下载(备用方案)

如果配置镜像后仍然觉得速度不理想,或者希望获得更稳定的下载体验,可以“曲线救国”——用迅雷、IDM 或 aria2c 这类支持多线程的下载工具来获取模型文件,速度能提升 3-5 倍-1-3

操作步骤:

  1. 获取模型的真实下载链接

    • 你可以使用一个开源工具 omdd 来获取 Ollama 模型的真实下载地址-9

    • 在 GitHub 上搜索 omdd 下载对应你系统的版本后,在终端运行:

      bash

      复制下载

      omdd-windows-amd64.exe get qwen3:1.7b
      
    • 命令执行后会输出一个或多个形如 https://ollama.com/library/qwen3:1.7b/... 的链接。

  2. 使用下载工具下载

    • 将获取到的链接复制到迅雷IDM 或 aria2c 等工具中。
    • 由于这些工具支持多线程下载,模型文件很快就能下载完成。
  3. 将模型文件交给 Ollama

    • qwen3:1.7b 模型文件很小,通常会在下载完成后由 Ollama 自动处理。如果手动下载的是一个 .tar 或 .ollama 文件,可以把它放到 Ollama 的模型存储目录(通常是 C:\Users\你的用户名.ollama\models)下,Ollama 会自动识别-7

🔍 顺便检查一下

如果配置了镜像后下载速度有明显改善,那就说明网络是唯一原因。如果还是很慢,可以顺便确认一下你的磁盘剩余空间是否充足(建议至少预留 5GB),以及网络连接是否稳定-1-3

建议你先试试方案一,由于 qwen3:1.7b 模型本身只有 1GB 左右,配置镜像后下载应该很快就能完成。如果镜像站速度不理想,再用方案二的多线程下载兜底。