Stable Diffusion入门使用技巧及个人试用实例分享--生成稳定人物及姿势篇(3)

2,590 阅读3分钟

本文正在参加 人工智能创作者扶持计划#人工智能作者扶持计划

大家好,我是小鱼姐姐。

开局一张图,首图是最近在尝试画油画,等我实验完成再分享给大家。

上节我们主要讲解了SD提示词的实践篇及ControlNet常用模型篇,本节主要想给大家分享一下如何在不自己单独训练lora的情况下尽量稳定的控制生成的人物的脸及姿势。欢迎阅读。

一、如何稳定生成相同的人物(脸部)

1、瞎编名字法:

detail face of xiaomei, same face

此方法下生成多张人物脸都一样!

a beautiful girl is dancing, detail face of xiaomei, same facelora:adventurers_v1:1

2、用明星名字顺序生成法:

Prompt格式:[明星A|明星B|明星C]

对SD的含义:第1步画明星A,第2步画B,第3步画C,循环下去

个人示例:

[Zhang Ziyi | Liu yi fei]

提示词: ((masterpiece)),((nsanely detailed)), ((intricate)),((exquisite face)) Best quality,Draw a young asain girl [Zhang Ziyi | Lin Chiling] wearing a beautiful white dress,close-up lora:crazyExpressions_crazyExpressions:1

大图的效果:(可以看出来脸部基本是一致的,yyds!)

咱再试一个外国美女的脸吧:(也是比较像的!)

[Katharine Hepburn | Judy Garland]

3、明星名字融合法:

Prompt格式:[明星A:明星B:小于1的系数(如0.4)]

对SD的含义:先画明星A,到40%的时候开始画明星B”例子:[Zhang Ziyi:Liu yi fei:0.4]

提示词 ((masterpiece)),((nsanely detailed)), ((intricate)),((exquisite face)) Best quality,Draw a young girl[Zhang Ziyi:Liu yi fei:0.4] wearing a beautiful white dress,close-up lora:crazyExpressions_crazyExpressions:1

当然如果想更可控的生成人物,也可以自己找一个人物的几十张图片,然后去训练单独的人物lora。单独训练人物lora我还没有尝试过,但是我尝试过训练建筑的lora,后续可以再分享给大家。

二、如何可控的生成人物的姿势

1、Controlnet-openpose:

上面讲解Controlnet姿势模型的时候也给过一个示例,此处咱再试试一个全身的姿势。

2、自定义人物姿势:

可以下载安装一个openpose的编辑器:

参考链接:

huggingface.co/lllyasviel/…

github.com/Mikubill/sd…

安装完成后这边会有一个openpose editor的入口:

点进去之后,这边就可以自由拖动人物的姿势,比如我这边我希望生成一个人物跳舞的姿势,我可以保存这个姿势命名为dance。然后可以点击右下角的文生图或者图生图的按钮,就会自动发送到文生图/图生图的页面。

此处发送到文生图页面,输入白裙女孩,然后这边controlnet勾选启用,然后预处理选择none即可。模型选择openpose。

生成图片如下:(忽略我的低画质,为了出图更快,没选高分辨率修复)

看出来看出来人物的姿势和controlnet pose基本一致,那比如我已经生成了这张图片,我只对这个人物形象很满意,但是我只想改动她的姿势。将上图发送到图生图页面,然后再把新的姿势加进来。参考如下:

为了尽可能和原图保持一致,我把重绘幅度调的低一点,0.61.

新生成的人物如下:(可以看到人物的姿势已经变过来了,虽然人物的细节变化还是蛮大的)

然后我又调了几次参数,发现重绘幅度最低0.56,可以把人物的姿势调整过来,然后背景和原图也比较像,但是人物细节还是有差。0.55及以下的话,人物姿势就变不过来还是保持原姿势。

恭喜你,已经阅读结束,希望本篇文章对您有帮助。

后续有空还会继续更新stable diffussion的使用技巧,欢迎关注或者点赞哦,再次感谢您的阅读。