国内源uv快速pip安装带Cuda的PyTorch指南
本篇指南记录下在国内环境如何以「最新范式」快速构建一个深度学习环境。
国内源快速装包 + uv 虚拟环境 + 最新版 PyTorch + 无需配置环境变量 CUDA
本指南并不限定具体的版本,所有的信息均来自各官方的文档,方便大家自行定制。
预先准备
- 已安装uv,且需使用torch的项目已初始化完成,并cd到项目根目录下。
- 有Nvidia显卡且已安装好驱动。
一、查看当前N卡驱动支持的最大CUDA版本
- 系统终端输入
nvidia-smi右上角的CUDA Version即是。(图片见附录)
二、到PyTorch官网选择版本
- 访问PyTorch官网:pytorch.org/get-started (图片见附录)
- 选择组合,一般是:
Stable+pip+Python+CUDA XX.Y - 最后底下会生成个链接,我们先放一边:
pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu130
注:CUDA一般选择显卡驱动能支持的最大版本即可,系统自行选择(Mac不用安装CUDA)。 注:如果 驱动最大支持版本 比 PyTorch官网目前最小版本 还小。 可以考虑更新显卡驱动或在该界面找到install previous versions of PyTorch安装旧版PyTorch,个人更推荐前者。
三、在国内源镜像列表中选择CUDA版本
- 访问阿里云镜像目录:mirrors.aliyun.com/pytorch-whe…
- 浏览器搜索(Ctrl+f):
cuXXY这里XXY来自上一步,比如13.0就是cu130 - 拼接起来得到链接:
https://mirrors.aliyun.com/pytorch-wheels/cu130
注:这一步主要是确认国内源是否提供你所选择的版本的CUDA,其他源(例如上交)也有相关服务,可以自己找一下。
四、合成使用国内源的安装命令
现在我们有两条命令
pip3 install torch torchvision --index-url https://download.pytorch.org/whl/cu130https://mirrors.aliyun.com/pytorch-wheels/cu130
注:后面的‘130’可能因人而异,根据需要选择。
具体步骤
- 将第一条的 --index-url(包括)后面的全部删掉,将pip3改为pip,得到:
pip install torch torchvision
- 然后前面加上
uv,得到了uv安装cpu版本的命令:
uv pip install torch torchvision
- 后面加上
-f, 然后再加上第二条,得到gpu版本国内源的命令:
uv pip install torch torchvision -f https://mirrors.aliyun.com/pytorch-wheels/cu130
注:Mac系统用第二条即可,无需安装GPU驱动。
完成并使用
复制到你初始化好的uv项目下进行安装就行了,速度很快,而且互相独立。
这样我们就得到了 国内源快速安装 + uv虚拟环境 + PyTorch最新版 + CUDA较新版
的万能安装命令了,且可以根据需要自行定制版本,复用到任何uv环境中。
附录
nvidia-smi结果示意图
右上角12.3即为目前驱动支持最大CUDA版本