以下是AI短剧本地一键部署方案的流程化指南(2026年最新可行路径)。AI短剧制作核心流程包括:剧本生成 → 角色/场景一致性管理 → 分镜图片生成 → 图生视频/文生视频 → 自动剪辑合成。
目前完全纯本地(无任何API调用)的一键部署仍较复杂,因为视频生成模型(如SVD、Wan2.1、LTX系列)对显卡要求高(推荐NVIDIA RTX 30系列以上,显存12GB+),但已有多个开源项目接近“一键”水平。下面推荐最接近一键部署的实用方案,优先选择简单易用的,按难度从低到高排序。
「AI-Tools查找新工具按日期,查找对应工具按名称排序」
链接1:pan.quark.cn/s/efc430e19…
链接2:pan.quark.cn/s/fcfc7fd5e…
方案推荐优先级
- OpenClaw(小龙虾):最推荐新手,一键安装 + 漫剧专用Skills,全自动流水线(脚本→分镜→角色一致性→视频渲染→剪辑输出MP4),支持本地运行。
- Toonflow:支持Windows桌面版一键安装 + Docker,支持小说转短剧自动化。
- Jellyfish(AI短剧工厂) 或 LocalMiniDrama:开源一站式流水线,适合追求全栈控制的用户。
- ComfyUI + 视频模型:节点式工作流,灵活但非严格“一键”,适合进阶用户。
- 其他:ai_story、Huobao Drama(Docker)等。
硬件最低要求:
- CPU:多核(推荐i7/Ryzen 7以上)
- GPU:NVIDIA显卡,显存≥8GB(视频生成推荐12GB+),CUDA支持
- 内存:16GB+
- 磁盘:50GB+空闲(模型文件较大)
通用前置准备(所有方案都需要):
- 安装 Git、Python 3.10+、Node.js 20+/22+(推荐从官网下载)。
- 安装 FFmpeg(视频处理必备):官网下载或用包管理器(Windows用winget/choco,Linux用apt)。
- 安装 CUDA Toolkit(NVIDIA官网,匹配你的显卡驱动)。
- (可选)或国内镜像加速(pip/pnpm用清华或npmmirror)。
方案1:OpenClaw(推荐,新手5-10分钟部署,全自动漫剧/短剧)
OpenClaw是一个开源AI Agent框架,安装漫剧专用Skills后,可实现一句话输入主题 → 全自动生成动态AI短剧,本地运行,数据私密,支持定时任务。
部署流程(Windows/Mac/Linux通用):
-
安装基础依赖(以Windows管理员PowerShell为例):
text
npm install -g pnpm git --version # 确认Git已装 pip install pillow moviepy opencv-python(国内加速:pnpm config set registry registry.npmmirror.com)
-
全局安装并初始化:
text
npm install -g openclaw@latest openclaw init -
启动Gateway:
text
openclaw gateway start看到 Gateway started on ws://127.0.0.1:18789 即成功。建议后台运行:openclaw gateway start --daemon。
-
安装AI漫剧专用Skills(核心功能):
- 通过OpenClaw界面或命令安装漫剧相关Skills(包括脚本生成、分镜、角色一致性、视频渲染、自动剪辑等)。
- 配置本地模型或API(支持本地LLM如Ollama + 本地生图/视频模型)。
-
使用:
- 输入故事主题或剧本 → 自动执行全流程 → 输出MP4。
- 支持实时进度查看、可暂停/重试。
优点:接近真正“一键”,24/7无人值守。 注意:部分高级视频生成仍可能需搭配本地ComfyUI或API,首次运行下载依赖需时间。
方案2:Toonflow(Windows桌面版最简单,小说转短剧)
适合小说/故事转AI短剧自动化。
部署流程:
-
Windows桌面版(推荐新手):
- 前往GitHub Releases(github.com/HBAI-Ltd/To…)下载Electron安装包。
- 直接安装运行,默认账号:admin / admin123。
- 内置后端,无需额外环境。
-
Docker版(服务器/NAS推荐):
text
git clone https://github.com/HBAI-Ltd/Toonflow-app.git cd Toonflow-app docker-compose -f docker/docker-compose.yml up -d --build -
使用流程:
- 创建项目 → 导入小说/TXT → AI提取角色 → 生成剧本/分镜 → 生成图片 → 调用本地/API视频生成 → 合成编辑输出。
优点:桌面版几乎零配置,流程可视化。
方案3:Jellyfish(AI短剧工厂,开源全栈流水线)
专注解决角色/场景漂移问题,六步流水线:剧本 → 智能分镜 → 一致性管理 → 视频生成 → 剪辑 → 导出。
部署流程(开发中,预计Beta活跃):
- GitHub:github.com/Forget-C/Je…
- 技术栈:React前端 + Node.js/FastAPI后端。
- 克隆仓库 → 安装依赖(npm install + pip install -r requirements.txt)→ 启动前后端。
- 配置本地模型(LLM + 生图 + 视频模型)。
优点:工业化流水线设计,一站式。 缺点:Beta阶段,部署门槛稍高。
方案4:ComfyUI + 视频模型(灵活进阶方案,节点式“一键”工作流)
ComfyUI是最流行的本地SD工作流工具,可集成SVD(Stable Video Diffusion)、Wan2.1、LTX等模型实现图生视频/文生视频。
部署流程(Windows便携版最简单):
- 下载ComfyUI便携版:
- GitHub Releases下载 ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z(或秋葉aaaki绘世启动器,一键启动)。
- 解压到任意目录,双击 run_nvidia_gpu.bat(或对应启动器)启动。
- 安装Manager扩展(便于管理节点和模型):
-
在 ComfyUI/custom_nodes 目录下:
text
git clone https://github.com/ltdrdata/ComfyUI-Manager.git -
重启ComfyUI → Manager界面更新全部。
-
- 下载视频模型(放对应文件夹):
- SVD/SVD-XT:Hugging Face stabilityai/stable-video-diffusion-img2vid(14帧或25帧)。
- 其他热门:Wan2.1、LTX2.3、Mochi-1等(搜索对应ComfyUI工作流)。
- 模型路径示例:ComfyUI/models/checkpoints/ 或 diffusion_models/。
- 加载工作流:
- 下载现成短剧/视频工作流JSON(B站/GitHub搜索“ComfyUI SVD 短视频工作流”或“AI短剧工作流”)。
- ComfyUI界面拖入JSON → 调整节点(图片输入 → 视频生成 → 拼接)。
- 一键执行Queue Prompt生成视频片段。
- 扩展到短剧全流程:
- 前端用本地LLM(Ollama)生成剧本/分镜提示词。
- 用SD/Flux生成一致性图片(加LoRA/ControlNet控角色)。
- ComfyUI生成视频片段 → 用MoviePy/FFmpeg自动剪辑合成。
优点:高度自定义,纯本地免费。 缺点:需手动组装工作流,非严格“一键”启动整个短剧,但可保存为“一键执行”模板。