基础环境
ComfyUI的基础环境,内置多语言插件AIGODLIKE-COMFYUI-TRANSLATION,默认中文可手动切换其他语言(后续再集成更多插件,也可以自己安装比较简单,下载到/root/ComfyUI/custom_nodes即可)GpuMall智算云 | 省钱、好用、弹性。租GPU就上GpuMall,面向AI开发者的GPU云平台
使用方法
修改配置
镜像中不包含任何模型文件、vae文件等,需要另外下载相关的模型;GpuMall实例根目录空间大小有限,建议修改配置文件放到/gm-data, 如果StableDiffussionWebUI的模型文件也可以修改以下配置使用:#autodl#恒源云#矩池云#算力云#恒源云 实例迁移#autodl 官网#autodi#GpuMall#GPU云#AutoDL#AotuDL 算力云#GpuMall智算云#AI#大数据#算力租赁#大模型#深度学习#人工智能#算力变现
/root/ComfyUI/extra_model_paths.yaml
1
启动ComfyUI
# 添加了一个启动脚本主要是指定监听的ip和output的目录
# 有需要可手动修改start.sh 增加需要的参数
cd /root/ComfyUI && ./start.sh
1
2
3
操作
具体的操作可以到官方仓库查看文档 github.com/comfyanonym…
示例
可以使用默认的workflow简单测试, 以GpuMall官方提供模型AnythingV5为例:
- 选择高可用云创建实例(如果不用GpuMall提供的镜像也可以自行下载)
- 实例创建成功后,创建自定义端口 8188(ComfyUI默认端口为8188,如果指定其他的端口这里就填相应端口即可)
- 从/gm-models拷贝AnythingV5模型到指定目录,这里拷贝到/gm-data/models/checkpoints/
cp /gm-models/Stable-Diffusion-WebUI/AnythingV5.safetensors /gm-data/models/checkpoints/
1
- 启动ComfyUI
cd /root/ComfyUI && ./start.sh
1
启动后可以点击实例列表内的自定义端口直接访问ComfyUI界面
默认的workflow比较简单,如下图
- 在Checkpoint加载器中选择AnythingV5.savetensors
- 在Clip文本编辑器中输入提示词(这里只是测试,另外一个Clip可以不填内容)
- 快捷键Ctrl+回车开始执行,ComfyUI速度比较快,2080ti的机器也能很快出图
其他
常用的workflow可以在下面两个网站找
comfyworkflows.com/
openart.ai/workflows
comfyanonymous/ComfyUI/ComfyUI
镜像版本
V1
框架版本
PyTorch1.11
Cuda版本
12.0
镜像大小
10.64GB