windows本地傻瓜式部署manga-image-translator的GPU版

334 阅读1分钟

github.com/zyddnys/man…

有Nidva独显的还是建议部署显卡版,一般的甜品卡都问题不大。

千万不要在本地直接部署,装环境和装依赖有的是折腾的,尤其是依赖里头的pydensecrf那玩意。强烈建议通过docker部署。

windows中的docker的安装及配置自行搜索。

本篇大量参考最简单的 manga-image-translator 本地部署流程 | ComicRead Script,由于这篇教程是基于CPU版部署的,需要更改一些东西。

安装NVIDIA Container Toolkit

在docker中要调用GPU,则先需要在独显中安装NVIDIA Container Toolkit。安装步骤:

  1. 添加 NVIDIA 容器工具包的 GPG 密钥和仓库:

    distribution=$(. /etc/os-release;echo $ID$VERSION_ID) \
      && curl -fsSL <https://nvidia.github.io/libnvidia-container/gpgkey> | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \
      && curl -s -L <https://nvidia.github.io/libnvidia-container/$distribution/libnvidia-container.list> | \
             sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
             sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
    
  2. 安装 NVIDIA 容器工具包:

    sudo apt-get update
    sudo apt-get install -y nvidia-container-toolkit
    
  3. 测试 GPU 访问(网络问题自行解决):

docker run --rm --gpus all nvidia/cuda:11.0.3-base-ubuntu20.04 nvidia-smi

在Docker中部署 manga-image-translator

  1. 选择一个程序启动的文件夹(本文件夹还会存放程序产生的图片缓存)

  2. 在文件夹内创建docker-compose.yml文件,内容为以下:

    version: "3.8"
    name: manga_image_translator
    services:
      manga_image_translator:
        image: zyddnys/manga-image-translator:main
        container_name: manga_image_translator_gpu
        command: server/main.py --verbose --start-instance --host=0.0.0.0 --port=5003 --use-gpu
        volumes:
          - ./result:/app/result
        ports:
          - 5003:5003
        ipc: host
        deploy:
          resources:
            reservations:
              devices:
                - driver: nvidia
                  count: all
                  capabilities: [compute, utility]
    
  3. 在terminal中运行安装及启动指令(网络问题自行解决

    cd ‘你的文件夹目录’
    docker-compose up