在 AI 领域,模型上下文协议(MCP (Model Context Protocol))由 Anthropic 推出,旨在通过标准化接口使 AI 模型(如 Claude、GPT 等)能够调用外部工具。借助 AceData Cloud 提供的 Luma MCP 服务器,您可以在 Claude Desktop、VS Code、Cursor 等 AI 客户端中直接生成 AI 视频。
功能概述
Luma MCP 服务器提供以下核心功能:
- 文本生成视频 — 从文本提示生成高质量视频
- 图像生成视频 — 从图像开始或结束生成视频
- 视频续集 — 从现有视频的最后一帧继续生成
- 多种长宽比 — 支持 16:9、9:16、1:1 等多种比例
- 视觉增强 — 可选的视觉质量增强功能
- 任务查询 — 监控生成进度并获取结果
前提条件
在使用 Luma MCP 之前,您需要获取 AceData Cloud API Token:
- 注册或登录到 AceData Cloud 平台
- 访问 Luma Videos API 页面
- 点击“获取”以获取 API Token(首次申请者可获得免费积分)
安装配置
方法 1:推荐使用 pip 安装
pip install mcp-luma
方法 2:源代码安装
git clone https://github.com/AceDataCloud/LumaMCP.git
cd LumaMCP
pip install -e .
安装完成后,您可以使用 mcp-luma 命令启动服务。
在 Claude Desktop 中使用
编辑 Claude Desktop 配置文件:
- macOS:
~/Library/Application Support/Claude/claude_desktop_config.json - Windows:
%APPDATA%\Claude\claude_desktop_config.json
添加以下配置:
{
"mcpServers": {
"luma": {
"command": "mcp-luma",
"env": {
"ACEDATACLOUD_API_TOKEN": "your API Token"
}
}
}
}
如果使用 uvx(无需提前安装该软件包):
{
"mcpServers": {
"luma": {
"command": "uvx",
"args": ["mcp-luma"],
"env": {
"ACEDATACLOUD_API_TOKEN": "your API Token"
}
}
}
}
保存配置后,重启 Claude Desktop,以便在对话中使用 Luma 相关工具。
在 VS Code / Cursor 中使用
在项目根目录创建 .vscode/mcp.json 文件:
{
"servers": {
"luma": {
"command": "mcp-luma",
"env": {
"ACEDATACLOUD_API_TOKEN": "your API Token"
}
}
}
}
或使用 uvx:
{
"servers": {
"luma": {
"command": "uvx",
"args": ["mcp-luma"],
"env": {
"ACEDATACLOUD_API_TOKEN": "your API Token"
}
}
}
}
可用工具列表
| 工具名称 | 描述 |
|---|---|
luma_generate_video | 从文本提示生成视频 |
luma_generate_video_from_image | 从图像生成视频 |
luma_extend_video | 继续现有视频 |
luma_extend_video_from_url | 从指定 URL 的视频继续生成 |
luma_get_task | 查询单个任务的状态 |
luma_get_tasks_batch | 批量查询任务状态 |
使用示例
配置完成后,您可以在 AI 客户端中使用自然语言直接调用这些功能,例如:
- "帮我生成一个海边日落的视频"
- "使用这张照片作为第一帧生成一个 5 秒的视频"
- "继续这个视频并进一步扩展"
- "生成一个 9:16 长宽比的竖屏视频"
更多信息
- GitHub 仓库:AceDataCloud/LumaMCP
- PyPI 包:mcp-luma
- API 文档:Luma 视频生成 API
Luma MCP 使得视频生成变得更加简单和高效,特别适合需要快速生成多样化视频内容的开发者和创作者。
技术标签:#AI #视频生成 #API #AceDataCloud #开发者工具