AI 搞视频生成,已经进化到这个程度了?!
对着一张照片随手一刷,就能让被选中的目标动起来!
明明是一辆静止的卡车,一刷就跑了起来,连光影都完美还原:
原本只是一张火灾照片,现在随手一刷就能让火焰直冲天际,热度扑面而来:
这样下去,哪还分得清照片和实拍视频!
原来,这是 Runway 给 AI 视频软件 Gen-2 打造的新功能,一涂一刷就能让图像中的物体动起来,逼真程度不亚于神笔马良。
虽然只是个功能预热,不过效果一出就在网上爆火:
看得网友一个个变身急急国王,直呼 “等不及想要尝试一波”:
Runway 同时还放出了更多功能预热效果,一起来看看。
这个 Runway 新出的功能,叫做运动笔刷(Motion Brush)。
顾名思义,只需要用这个笔刷对着画面中的任意对象 “涂” 一下,就能让他们动起来。
不仅可以是静止的人,连裙摆和头部的动作都很自然:
还可以是流动的液体如瀑布,连雾气都能还原:
或者是一根还没熄灭的烟:
一团正在众人面前燃烧的篝火:
更大块的背景也能做成动态的,甚至改变画面的光影效果,例如正在飞速移动的乌云:
当然,上面这些都还是 Runway“亮明牌”,主动告诉你他们对照片 “做了手脚”。
下面这些没有涂抹痕迹的视频,更是几乎完全看不出有 AI 修饰的成分在里面:
一连串效果炸出,也导致功能还没正式放出来,网友已经迫不及待了。
不少人试图理解这个功能究竟是怎么实现的。也有网友更关注功能啥时候出,希望到时候直接 321 上链接(手动狗头)
确实可以期待一波了。
不过,不止是 Runway 推出的这个 Motion Brush 新功能。
最近一连串的 AI 生成进展似乎都在表明,视频生成领域似乎真要迎来技术大爆发了。
就像在这几天,还有网友开发了很火的文生动画软件 Animatediff 的新玩法。
只需要结合最新的研究 LCM-LORA,生成 16 帧的动画视频只需要 7 秒钟的时间。
LCM-LORA 是清华大学和 Hugging Face 新出的一个 AI 图片生成技术,可以让 Stable Diffusion 的图片生成速度大幅提升。
其中,LCM(Latent Consistency Models)是基于今年早些时候 OpenAI 的 “一致性模型” 提出来的一种图像生成新方法,能快速生成 768×768 的高分辨率图片。
但 LCM 不兼容现有模型,因此清华和抱抱脸的成员又新出了一版 LCM-LORA 模型,可以兼容所有 Stable Diffusion 模型,加速出图速度。
结合 Animatediff 软件,生成一个这样的动画只需要 7 秒钟左右:
目前 LCM-LORA 已经在抱抱脸上开源。
你感觉最近的 AI 视频生成进展如何,距离可用上还有多远?
参考链接:
[1]twitter.com/runwayml/st…
[2]twitter.com/op7418/stat…
版权所有,未经授权不得以任何形式转载及使用,违者必究。