Docker + uv 快速搭建Pytorch开发环境

75 阅读1分钟

docker 环境安装

  1. 查看自己的电脑支持什么版本的cuda, 在命令行中输入:nvidia-smi,在第一行中可以看到 图片.png CUDA 的版本,比如我这里是13.0
  2. 打开docker镜像的地址,可以根据这个CUDA版本下载对应的docker镜像,这里有一点要说明,一般情况下是向下兼容的,比如你使用了13.0的镜像,你是能成功运行12.8版本的pytorch-cuda。不要担心。一定一定要注意,不要选比你本机大的镜像,比如本机是13.0的,你选个13.0.1,这是万万不行的。 镜像一般有两种:
种类作用
cuda版本号cudnn-runtime-ubuntu版本号只使用cuda,而不开发cuda,体积小
cuda版本号cudnn-devel-ubuntu版本号需要开发cuda,体积大

我本人建议使用第二种,体积大点的,不是因为要开发docker,而是很多人开发pytorch的时候总是会引用第三方包,这些包会使用cuda本身。

  1. 运行镜像,生成容器:
docker run --gpus all  -d docker.io/nvidia/cuda:13.0.0-cudnn-devel-ubuntu24.04 tail -f /dev/null

--gpus all 千万别忘记了,一忘一个不吱声!!!!!!!不加容器就用不了显卡。 tail -f /dev/null 运行的第一个命令也别忘记了,一忘一个不吱声!!!!!容器突然就没了!

  1. VS code 通过远程功能连接到容器 一般vs code 会贴心的帮你转发端口,不用再苦B的-p了。

uv

主要就是pytorch的配置了。

[tool.uv.sources]  
torch = [  
{ index = "pytorch-cu130", marker = "sys_platform == 'linux' or sys_platform == 'win32'" },  
]  
torchvision = [  
{ index = "pytorch-cu130", marker = "sys_platform == 'linux' or sys_platform == 'win32'" },  
]  
torchaudio= [  
{ index = "pytorch-cu130", marker = "sys_platform == 'linux' or sys_platform == 'win32'" },  
]
[[tool.uv.index]]  
name = "pytorch-cu130"  
url = "https://download.pytorch.org/whl/cu130"  
explicit = true

安装依赖用uv sync就行。