国内源uv快速pip装最新PyTorch和CUDA:无需配置环境变量、相互隔离。

424 阅读2分钟

国内源uv快速pip安装带Cuda的PyTorch指南

本篇指南记录下在国内环境如何以「最新范式」快速构建一个深度学习环境。

国内源快速装包 + uv 虚拟环境 + 最新版 PyTorch + 无需配置环境变量 CUDA

本指南并不限定具体的版本,所有的信息均来自各官方的文档,方便大家自行定制。


预先准备

  • 已安装uv,且需使用torch的项目已初始化完成,并cd到项目根目录下。
  • 有Nvidia显卡且已安装好驱动。

一、查看当前N卡驱动支持的最大CUDA版本

  1. 系统终端输入 nvidia-smi 右上角的CUDA Version即是。(图片见附录)

二、到PyTorch官网选择版本

  1. 访问PyTorch官网:pytorch.org/get-started (图片见附录)
  2. 选择组合,一般是:Stable + pip + Python + CUDA XX.Y
  3. 最后底下会生成个链接,我们先放一边: pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu130

注:CUDA一般选择显卡驱动能支持的最大版本即可,系统自行选择(Mac不用安装CUDA)。 注:如果 驱动最大支持版本PyTorch官网目前最小版本 还小。 可以考虑更新显卡驱动或在该界面找到install previous versions of PyTorch安装旧版PyTorch,个人更推荐前者。

三、在国内源镜像列表中选择CUDA版本

  1. 访问阿里云镜像目录:mirrors.aliyun.com/pytorch-whe…
  2. 浏览器搜索(Ctrl+f):cuXXY 这里XXY来自上一步,比如13.0就是cu130
  3. 拼接起来得到链接:https://mirrors.aliyun.com/pytorch-wheels/cu130

注:这一步主要是确认国内源是否提供你所选择的版本的CUDA,其他源(例如上交)也有相关服务,可以自己找一下。

四、合成使用国内源的安装命令

现在我们有两条命令

  • pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu130
  • https://mirrors.aliyun.com/pytorch-wheels/cu130

注:后面的‘130’可能因人而异,根据需要选择。

具体步骤
  1. 将第一条的 --index-url(包括)后面的全部删掉,将pip3改为pip,得到:

pip install torch torchvision

  1. 然后前面加上uv,得到了uv安装cpu版本的命令:

uv pip install torch torchvision

  1. 后面加上 -f, 然后再加上第二条,得到gpu版本国内源的命令:

uv pip install torch torchvision -f https://mirrors.aliyun.com/pytorch-wheels/cu130

注:Mac系统用第二条即可,无需安装GPU驱动。

完成并使用

复制到你初始化好的uv项目下进行安装就行了,速度很快,而且互相独立。 这样我们就得到了 国内源快速安装 + uv虚拟环境 + PyTorch最新版 + CUDA较新版 的万能安装命令了,且可以根据需要自行定制版本,复用到任何uv环境中。


附录

nvidia-smi结果示意图

右上角12.3即为目前驱动支持最大CUDA版本

image.png

PyTorch官网选择版本界面(2025年12月)

image.png