有Nidva独显的还是建议部署显卡版,一般的甜品卡都问题不大。
千万不要在本地直接部署,装环境和装依赖有的是折腾的,尤其是依赖里头的pydensecrf那玩意。强烈建议通过docker部署。
windows中的docker的安装及配置自行搜索。
本篇大量参考最简单的 manga-image-translator 本地部署流程 | ComicRead Script,由于这篇教程是基于CPU版部署的,需要更改一些东西。
安装NVIDIA Container Toolkit
在docker中要调用GPU,则先需要在独显中安装NVIDIA Container Toolkit。安装步骤:
-
添加 NVIDIA 容器工具包的 GPG 密钥和仓库:
distribution=$(. /etc/os-release;echo $ID$VERSION_ID) \ && curl -fsSL <https://nvidia.github.io/libnvidia-container/gpgkey> | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \ && curl -s -L <https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list> | \ sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \ sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list -
安装 NVIDIA 容器工具包:
sudo apt-get update sudo apt-get install -y nvidia-container-toolkit -
测试 GPU 访问(网络问题自行解决):
docker run --rm --gpus all nvidia/cuda:11.0.3-base-ubuntu20.04 nvidia-smi
在Docker中部署 manga-image-translator
-
选择一个程序启动的文件夹(本文件夹还会存放程序产生的图片缓存)
-
在文件夹内创建docker-compose.yml文件,内容为以下:
version: "3.8" name: manga_image_translator services: manga_image_translator: image: zyddnys/manga-image-translator:main container_name: manga_image_translator_gpu command: server/main.py --verbose --start-instance --host=0.0.0.0 --port=5003 --use-gpu volumes: - ./result:/app/result ports: - 5003:5003 ipc: host deploy: resources: reservations: devices: - driver: nvidia count: all capabilities: [compute, utility] -
在terminal中运行安装及启动指令(网络问题自行解决)
cd ‘你的文件夹目录’ docker-compose up