在 5月 14 号凌晨的 OpenAI Spring Updates 上,OpenAI 推出了他们的最新产品——GPT-4o,o 代表 Omnimodel,即全能模型。它有着 GPT-4 级别的 AI 能力,还能实时处理音频、视觉和文本,并对所有用户免费开放使用,而付费用户将拥有 5 倍于免费用户的容量限制。
从发布会直播时演示的内容来看,感觉就像是人和 AI 正在视频通话一样,它不但能感受你的呼吸节奏,还能观察周围的环境,有一种手机成“精”了的冲击感!😂。
就音频而言,相对 GPT-3.5 和 GPT-4,GPT-4o 能够在 232 毫秒内对音频输入做出反应。还能做到打断和继续对话,真的很酷~
而在发布会直播之外,他们还发布了一个让两个 ChatGPT 相互对话的视频,套娃效果也算是拉满了,以后让 AI 来头脑风暴吧:
它们还能“观察” Brockman 的穿衣打扮以及当前所处的环境,并能感知到 Brockman 是站在上帝视角在听它们交流。
不但如此,在上面几个视频中,还能看到 GPT-4o 在语音处理上,还带有类人的情绪处理:
除此之外,相较于 GPT-4 Turbo 而言,GPT-4o 的价格才是它的一半,但是速度是它的两倍,速率限制是其 5 倍。对于 Plus 用户,OpenAI 还推出了 macOS 应用,它不仅能和你直接视频,还能直接看屏幕,对着屏幕直接写代码(好好好,之前是和人卷,现在直接上机器)
在视频时,它还能看到你的表情以及情绪变化,而这个全新的 ChatGPT 应用,会在几周内推出。
看完发布会之后不禁感叹,这不就是钢铁侠里的贾维斯吗?