角色一致性终于不是玄学了:Seedance 2.0 怎么让同一个人拍完整部戏

12 阅读4分钟

做 AI 视频最让人崩溃的事情,不是画质不好,不是动作不流畅,而是——镜头一切,主角换了张脸。

这个问题在 Seedance 1.5 Pro 时代几乎无解。你在第一个镜头里生成了一个黑发女孩,切到第二个镜头,她变成了棕发,脸型也微妙地变了。你在 Prompt 里反复强调"black hair, same character"也没用,模型根本不理你。

Seedance 2.0 终于给了一个靠谱的解法。

核心机制:参考图锁定

Seedance 2.0 的角色一致性方案很直接——上传参考图,用 @ 语法锁定。

具体做法:

第一步:准备角色参考图

最好是三视图:正面、侧面(左或右)、四分之三角度。三张图拍清楚脸部特征、发型、服装。

如果只有一张正面照也行,但跨角度的一致性会下降。

第二步:在每个镜头的 Prompt 里 @ 这张图

镜头一:
@CharacterImage as the main character, she walks into the office and sits down at her desk.

镜头二:
@CharacterImage as the main character, close-up of her face as she reads a document, slight frown.

镜头三:
@CharacterImage as the main character, she stands up abruptly and walks toward the door.

每个镜头都 @ 同一张参考图。模型会从参考图里提取面部特征、发色、肤色、服装风格,在生成时尽量保持一致。

实际效果:85 分,不完美但够用

实测下来的一致性评分(主观感受):

场景一致性备注
正面 → 正面95%几乎完美
正面 → 侧面85%脸型保持好,细节(痣、眉形)偶尔丢失
正面 → 仰拍/俯拍70%极端角度容易走样
室内 → 室外(换场景)80%光照变化会导致肤色微调
静态 → 剧烈运动75%跑步、跳跃时脸部偶尔变形

和 1.5 Pro 对比,进步明显。1.5 Pro 在正面到侧面的切换上只能打 50-60 分,现在 85 分,已经是"观众不仔细看不会注意到"的水平。

和 Sora 2 的 Cameo 比呢?

Sora 2 Pro 有一个叫"Cameo"的功能,专门用于角色一致性。你上传一张角色照片,创建一个"Cameo 角色",然后在任何 Prompt 里调用它。

Cameo 的一致性略好于 Seedance 2.0 的 @ 参考图,尤其是在极端角度下。但 Cameo 只能锁定角色外貌,不能同时参考运镜、动作、音乐。Seedance 2.0 的 @ 语法是通用的,角色锁定只是它的用途之一。

如果你只需要角色一致性,Sora 2 的 Cameo 更专业。如果你需要角色一致性 + 运镜参考 + 音乐同步,Seedance 2.0 的体系更完整。

进阶技巧

三视图生成法

如果你手上没有真人照片,可以先用 AI 图片生成模型(Midjourney、Flux、Seedream)生成一个角色的三视图。

Prompt 参考:

Character reference sheet of a young Asian woman, 
black shoulder-length hair, round face, 
wearing a white blouse, front view, side view, three-quarter view, 
white background, studio lighting, consistent style

生成出来的三视图上传到 Seedance 2.0 作为参考,角色就定死了。这样你的整个视频项目用的都是同一个"虚拟演员"。

服装锁定

角色一致性不只是脸。换了件衣服,观众也会觉得"这不是同一个人"。

在参考图里,确保服装特征清晰可见。如果角色需要在不同场景穿不同衣服,给每套服装各准备一张参考图,在对应镜头里 @ 不同的图。

室内场景:@CharacterCasual(穿休闲装的角色照片)
室外场景:@CharacterFormal(穿西装的角色照片)

多角色场景

如果你的视频里有两个以上的角色,每个角色各上传一张参考图,在 Prompt 里分别 @。

@Character1 as the detective and @Character2 as the suspect, 
they sit across from each other at a table in an interrogation room, 
the detective slams the table and says "Where were you last night?"

实测双角色的一致性还不错。三个以上角色就开始吃力了——模型有时候会把角色特征搞混。

还差什么?

老实说,Seedance 2.0 的角色一致性已经从"不可用"进化到了"基本可用"。但离"专业可用"还有差距:

  1. 没有显式 ID 嵌入:它是通过图片参考来"模仿"角色,而不是真正"理解"角色的身份。所以遇到遮挡、光照剧变、极端角度,还是会出问题。
  2. 跨视频不保证一致:每次生成都是独立的。今天生成的和明天生成的,即使用同一张参考图,也可能有微妙差异。
  3. 表情范围有限:参考图是静态的,模型能推理出的表情变化有限。如果你的角色需要从大笑到大哭,中间的表情过渡可能不自然。

总结

角色一致性从"玄学"变成了"工程问题"。

以前你只能祈祷模型运气好,生成出来的角色长得一样。现在你可以用参考图 + @ 语法来系统性地控制它。不完美,但有章法了。

对于做短剧、做系列内容、做品牌 IP 的创作者来说,这个进步意味着你终于可以用 AI 来做"系列化"的内容了,而不仅仅是一次性的素材。