重磅消息!!!!
OpenAI又又又又出手了,2月15日,OpenAI发布了第一个文生视频(“text-to-video”)的大模型Sora。它标志着人工智能领域一个重大的技术突破。这个模型能够接收简短的文本描述,并基于这些描述生成长达一分钟的高清视频片段。
OpenAI还是跟以往一样,轻易不出手,一旦出手就是王炸,现阶段的文生视频的平台诸如RunwayML、Synthesia、Pika等还在攻克几秒视频的连贯性与人物的一致性,而在OpenAI公开的48个演示视频中,我们可以看到高度的连贯和稳定性,在60s的一镜到底的视频中,人物、背景、画面、镜头都展现出了惊人的专业性,实在是让人为之震撼,其震撼程度不亚于chatgpt3.5问世的场面。
在长达17秒的一镜到底的视频里,画面中的细节处理的很好,无论是远景,还是近处的雪花丝毫不影响整体画面的流畅度,并且当我们仔细观察画面中的人物时,会发现在人物的衣服上也会有随着雪花降落而产生的渐变,可以说openai这一出手,应该会对视频行业,传统的影视公司带来不小的影响。
下面我们将它的提示词截取出来,分析一下
Prompt:“Beautiful, snowy Tokyo city is bustlingThe camera moves through the bustling citystreet, following several people enjoying thebeautiful snowy weather and shopping atnearby stalls. Gorgeous sakura petals are flyingthrough the wind along with snowflakes.”
翻译:美丽、白雪皑皑的东京市熙熙攘攘的镜头在熙熙攘攘的城市街道上移动,跟随几个人享受美丽的雪天,并在附近的摊位购物。绚丽的樱花花瓣随着雪花在风中飞舞。
标准的主谓宾+短句结合的结构,根据咱的推测,sora的提示词逻辑和权重应该与chatgpt相差不大,等我上手了sora第一时间分享给你们使用体验哦!
AIGC工具和各类大模型的涌现,确确实实的让我们感受到了科技的力量,如果说二十年前互联网是一个巨大的风口,那么我确信,人工智能一定是目前最具发展潜力以及最佳选择的赛道。
而我们KuaFuAI的AIGC产品-码上飞 CodeFlying,将研究的领域聚焦到了用自然语言生成软件的方向上,如果说sora是**(文生视频)的话,那我们的产品就是(文生软件)**。