OpenAI Sora? 文本生成视频,超级震撼!

82 阅读2分钟

大家可以先从注册使用GPT、了解大语言模型开始,如果想获得更好的体验可以尝试GPT4.0,笔者为大家推荐一篇文章,大家可以访问以下链接,里面的内容肯定能满足您的需求。

ChatGPT 注册,升级,最详细,适合小白

就在前天,OpenAI发布了能够根据文本内容自主创作时长一分钟视频的AI大模型Sora。大家可以访问openai官网,浏览相关的震撼的演示视频 openai.com/sora

比如:向sora模型输入如下的提示内容:

 提示:一位时尚女性走在充满温暖霓虹灯和动画城市标牌的东京街道上。她穿着黑色皮夹克、红色长裙和黑色靴子,拎着黑色钱包。她戴着太阳镜,涂着红色口红。她走路自信又随意。街道潮湿且反光,在彩色灯光的照射下形成镜面效果。许多行人走来走去。

image.png

网上大多是对底层技术、对视频细节的夸赞,以及对未来的担忧。笔者在此不讨论这些问题,因为很多看法都是网友在互相吹捧,没有自己独到的见解和看法,甚至有些借此蹭热度、贩卖焦虑。

首先,笔者浏览完这个视频,发现了两个问题:宣传视频时长是一分钟,但放出来的却是半分钟左右;其次,视频没声音。但最关键的是,看完视频,给我的感觉:"我刚看了什么?",因为视频的内容给笔者的感觉就像是用手机随机扫描下街道生成的。没有灵魂!这是我对Sora的第一印象。无论sora收集的数据有多么精良,sora处理能力有多强,AI模型有多完善,最终生成的作品依然能被人看出来是机器生成的。如果sora生成一些和大自然相关的视频倒还勉强可以。如果视频内容掺杂了人类的活动,目前来看就很不合适了。

所以现在你还在担心未来会被无数的Sora代替吗?只能说基本没有可能,你只要会讲故事,sora赋予生成视频灵魂就行,但Sora做不到的,也正是最核心的,人们最需要的,因为视频的内容有很多的细节需要人类思想的注入,而不是机械式的AI内容。

Sora刚问世,多些质疑很正常,但我们不能忽视它迭代的潜力。所以我们需要做的就是理解它,把握住机会!