实时响应的视频模型PixVerse R1:开启视频交互新时代

69 阅读3分钟

image.png

PixVerse R1

作为一名AI视频爱好者,我早已习惯了那种“输入指令 - 漫长等待 - 未知结果”的创作模式。每次在输入框敲下精心构思的Prompt,按下生成键后,就只能对着屏幕上旋转的圆圈发呆,心中满是期待与忐忑。几分钟后,得到的可能是惊艳的作品,也可能是完全不符合预期的“惊吓”。这种异步式的创作体验,让AI视频虽然有趣,但始终带着一丝距离感。

但爱诗科技最新发布的PixVerse R1打破了这一格局。在“赛博朋克城市”的场景中,我没有像往常一样按下“生成”按钮,也没有陷入漫长的等待。我只是在输入框中依次输入我的想法:“开始下大雨,霓虹灯在湿润的地面上反射出来”,“突然,城市大停电。只有紧急红灯亮着”,“快速向上飞,穿过摩天大楼到达城市的上层区域。”

神奇的事情发生了,画面中的光影立刻随着我的指令发生了流转。没有黑屏加载,没有重新渲染的割裂感,就仿佛镜头真的听懂了我的指挥,实时向前推进。一个AI模型正在以即时响应级的速度,为我“实时编织”一个从未存在的视觉世界。

进度条的消亡 创作心流的延续image.png及时响应提示词回顾AI视频发展的历程,2024年年初Sora的出现,将长视频生成的效果提升到了前所未有的高度,掀起了全球范围内的视频生成热潮。但在这两年里,我们虽然被各种视频大模型惊艳,但这种惊艳始终带着一种“延迟感”。

过往,AI视频生成就像“开盲盒”。用户输入一段长长的提示词,然后进入一段名为“生成中”的等待时间。这段时间长则数分钟,短则几十秒,但在人类的创作心流中,这几十秒足以让灵感断裂。如果生成的视频光影不对、构图不佳,只能修改提示词,再次进入漫长的等待循环。这种“输入 - 等待 - 输出”的异步逻辑,本质上是人类在迁就机器的算力和算法逻辑。

而PixVerse R1的出现,正在试图终结这种“迁就”。实时生成的真正意义,绝不仅仅是“快”。当启动延迟降低到足够低,帧率也足够稳定时,人类的感知系统会产生一种错觉:你不再觉得自己是在使用一个工具,而是觉得你正处于一个“活着的”世界里。

image.png

行业风向悄然改变

PixVerse R1目前展示出的能力,本质上是给数字世界铺设了一层“实时生成层”,这层能力的释放,其影响力将远超视频创作本身。尽管PixVerse R1目前尚处于内测阶段,且暂未在国内上线体验,但它已然开启了“流动世界”的大门。我期待着更多创作者能亲自触碰这个“流动的世界”,一起探索视频交互的无限可能。

 有关慧星云

慧星云是专业AI生产力平台,汇聚AI算力服务、AI生产力工具与魔多AI创作社区,赋能AI开发与创作全流程。