2026AI短剧本地一键部署方案

0 阅读5分钟

以下是AI短剧本地一键部署方案的流程化指南(2026年最新可行路径)。AI短剧制作核心流程包括:剧本生成 → 角色/场景一致性管理 → 分镜图片生成 → 图生视频/文生视频 → 自动剪辑合成

目前完全纯本地(无任何API调用)的一键部署仍较复杂,因为视频生成模型(如SVD、Wan2.1、LTX系列)对显卡要求高(推荐NVIDIA RTX 30系列以上,显存12GB+),但已有多个开源项目接近“一键”水平。下面推荐最接近一键部署的实用方案,优先选择简单易用的,按难度从低到高排序。

「AI-Tools查找新工具按日期,查找对应工具按名称排序」
链接1:pan.quark.cn/s/efc430e19…
链接2:pan.quark.cn/s/fcfc7fd5e…

方案推荐优先级

  1. OpenClaw(小龙虾):最推荐新手,一键安装 + 漫剧专用Skills,全自动流水线(脚本→分镜→角色一致性→视频渲染→剪辑输出MP4),支持本地运行。
  2. Toonflow:支持Windows桌面版一键安装 + Docker,支持小说转短剧自动化。
  3. Jellyfish(AI短剧工厂)LocalMiniDrama:开源一站式流水线,适合追求全栈控制的用户。
  4. ComfyUI + 视频模型:节点式工作流,灵活但非严格“一键”,适合进阶用户。
  5. 其他:ai_story、Huobao Drama(Docker)等。

硬件最低要求

  • CPU:多核(推荐i7/Ryzen 7以上)
  • GPU:NVIDIA显卡,显存≥8GB(视频生成推荐12GB+),CUDA支持
  • 内存:16GB+
  • 磁盘:50GB+空闲(模型文件较大)

通用前置准备(所有方案都需要):

  • 安装 GitPython 3.10+Node.js 20+/22+(推荐从官网下载)。
  • 安装 FFmpeg(视频处理必备):官网下载或用包管理器(Windows用winget/choco,Linux用apt)。
  • 安装 CUDA Toolkit(NVIDIA官网,匹配你的显卡驱动)。
  • (可选)或国内镜像加速(pip/pnpm用清华或npmmirror)。

方案1:OpenClaw(推荐,新手5-10分钟部署,全自动漫剧/短剧)

OpenClaw是一个开源AI Agent框架,安装漫剧专用Skills后,可实现一句话输入主题 → 全自动生成动态AI短剧,本地运行,数据私密,支持定时任务。

部署流程(Windows/Mac/Linux通用):

  1. 安装基础依赖(以Windows管理员PowerShell为例):

    text

    npm install -g pnpm
    git --version  # 确认Git已装
    pip install pillow moviepy opencv-python
    

    (国内加速:pnpm config set registry registry.npmmirror.com)

  2. 全局安装并初始化

    text

    npm install -g openclaw@latest
    openclaw init
    
  3. 启动Gateway

    text

    openclaw gateway start
    

    看到 Gateway started on ws://127.0.0.1:18789 即成功。建议后台运行:openclaw gateway start --daemon。

  4. 安装AI漫剧专用Skills(核心功能):

    • 通过OpenClaw界面或命令安装漫剧相关Skills(包括脚本生成、分镜、角色一致性、视频渲染、自动剪辑等)。
    • 配置本地模型或API(支持本地LLM如Ollama + 本地生图/视频模型)。
  5. 使用

    • 输入故事主题或剧本 → 自动执行全流程 → 输出MP4。
    • 支持实时进度查看、可暂停/重试。

优点:接近真正“一键”,24/7无人值守。 注意:部分高级视频生成仍可能需搭配本地ComfyUI或API,首次运行下载依赖需时间。

方案2:Toonflow(Windows桌面版最简单,小说转短剧)

适合小说/故事转AI短剧自动化。

部署流程

  1. Windows桌面版(推荐新手)

    • 前往GitHub Releases(github.com/HBAI-Ltd/To…)下载Electron安装包。
    • 直接安装运行,默认账号:admin / admin123。
    • 内置后端,无需额外环境。
  2. Docker版(服务器/NAS推荐)

    text

    git clone https://github.com/HBAI-Ltd/Toonflow-app.git
    cd Toonflow-app
    docker-compose -f docker/docker-compose.yml up -d --build
    

    访问 http://localhost:60000。

  3. 使用流程

    • 创建项目 → 导入小说/TXT → AI提取角色 → 生成剧本/分镜 → 生成图片 → 调用本地/API视频生成 → 合成编辑输出。

优点:桌面版几乎零配置,流程可视化。

方案3:Jellyfish(AI短剧工厂,开源全栈流水线)

专注解决角色/场景漂移问题,六步流水线:剧本 → 智能分镜 → 一致性管理 → 视频生成 → 剪辑 → 导出。

部署流程(开发中,预计Beta活跃):

  • GitHub:github.com/Forget-C/Je…
  • 技术栈:React前端 + Node.js/FastAPI后端。
  • 克隆仓库 → 安装依赖(npm install + pip install -r requirements.txt)→ 启动前后端。
  • 配置本地模型(LLM + 生图 + 视频模型)。

优点:工业化流水线设计,一站式。 缺点:Beta阶段,部署门槛稍高。

方案4:ComfyUI + 视频模型(灵活进阶方案,节点式“一键”工作流)

ComfyUI是最流行的本地SD工作流工具,可集成SVD(Stable Video Diffusion)、Wan2.1、LTX等模型实现图生视频/文生视频。

部署流程(Windows便携版最简单):

  1. 下载ComfyUI便携版
    • GitHub Releases下载 ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z(或秋葉aaaki绘世启动器,一键启动)。
    • 解压到任意目录,双击 run_nvidia_gpu.bat(或对应启动器)启动。
  2. 安装Manager扩展(便于管理节点和模型):
    • 在 ComfyUI/custom_nodes 目录下:

      text

      git clone https://github.com/ltdrdata/ComfyUI-Manager.git
      
    • 重启ComfyUI → Manager界面更新全部。

  3. 下载视频模型(放对应文件夹):
    • SVD/SVD-XT:Hugging Face stabilityai/stable-video-diffusion-img2vid(14帧或25帧)。
    • 其他热门:Wan2.1、LTX2.3、Mochi-1等(搜索对应ComfyUI工作流)。
    • 模型路径示例:ComfyUI/models/checkpoints/ 或 diffusion_models/。
  4. 加载工作流
    • 下载现成短剧/视频工作流JSON(B站/GitHub搜索“ComfyUI SVD 短视频工作流”或“AI短剧工作流”)。
    • ComfyUI界面拖入JSON → 调整节点(图片输入 → 视频生成 → 拼接)。
    • 一键执行Queue Prompt生成视频片段。
  5. 扩展到短剧全流程
    • 前端用本地LLM(Ollama)生成剧本/分镜提示词。
    • 用SD/Flux生成一致性图片(加LoRA/ControlNet控角色)。
    • ComfyUI生成视频片段 → 用MoviePy/FFmpeg自动剪辑合成。

优点:高度自定义,纯本地免费。 缺点:需手动组装工作流,非严格“一键”启动整个短剧,但可保存为“一键执行”模板。