docker 环境安装
- 查看自己的电脑支持什么版本的cuda, 在命令行中输入:
nvidia-smi,在第一行中可以看到CUDA 的版本,比如我这里是13.0
- 打开docker镜像的地址,可以根据这个CUDA版本下载对应的docker镜像,这里有一点要说明,一般情况下是向下兼容的,比如你使用了13.0的镜像,你是能成功运行12.8版本的pytorch-cuda。不要担心。一定一定要注意,不要选比你本机大的镜像,比如本机是13.0的,你选个13.0.1,这是万万不行的。 镜像一般有两种:
| 种类 | 作用 |
|---|---|
| cuda版本号cudnn-runtime-ubuntu版本号 | 只使用cuda,而不开发cuda,体积小 |
| cuda版本号cudnn-devel-ubuntu版本号 | 需要开发cuda,体积大 |
我本人建议使用第二种,体积大点的,不是因为要开发docker,而是很多人开发pytorch的时候总是会引用第三方包,这些包会使用cuda本身。
- 运行镜像,生成容器:
docker run --gpus all -d docker.io/nvidia/cuda:13.0.0-cudnn-devel-ubuntu24.04 tail -f /dev/null
--gpus all 千万别忘记了,一忘一个不吱声!!!!!!!不加容器就用不了显卡。
tail -f /dev/null 运行的第一个命令也别忘记了,一忘一个不吱声!!!!!容器突然就没了!
- VS code 通过远程功能连接到容器
一般vs code 会贴心的帮你转发端口,不用再苦B的
-p了。
uv
主要就是pytorch的配置了。
[tool.uv.sources]
torch = [
{ index = "pytorch-cu130", marker = "sys_platform == 'linux' or sys_platform == 'win32'" },
]
torchvision = [
{ index = "pytorch-cu130", marker = "sys_platform == 'linux' or sys_platform == 'win32'" },
]
torchaudio= [
{ index = "pytorch-cu130", marker = "sys_platform == 'linux' or sys_platform == 'win32'" },
]
[[tool.uv.index]]
name = "pytorch-cu130"
url = "https://download.pytorch.org/whl/cu130"
explicit = true
安装依赖用uv sync就行。