
获得徽章 26
- GPT-4o 很牛逼啊!!!
juejin.cn
GPT-4o是迈向更自然人机交互的一步,它可以接受文本、音频和图像三者组合作为输入,并生成文本、音频和图像的任意组合输出,“与现有模型相比,GPT-4o在图像和音频理解方面尤其出色。”
在GPT-4o之前,用户使用语音模式与ChatGPT对话时,GPT-3.5的平均延迟为2.8秒,GPT-4为5.4秒,音频在输入时还会由于处理方式丢失大量信息,让GPT-4无法直接观察音调、说话的人和背景噪音,也无法输出笑声、歌唱声和表达情感。
与之相比,GPT-4o可以在232毫秒内对音频输入做出反应,与人类在对话中的反应时间相近。在录播视频中,两位高管做出了演示:机器人能够从急促的喘气声中理解“紧张”的含义,并且指导他进行深呼吸,还可以根据用户要求变换语调。
性能方面,根据传统基准测试,GPT-4o在文本、推理和编码等方面实现了与GPT-4 Turbo级别相当的性能,同时在多语言、音频和视觉功能方面的表现分数也创下了新高。
图像输入方面,研究人员启动摄像头,要求实时完成一道方程题,新模型轻松完成了任务;研究人员还展示了它对一张气温图表进行实时解读的能力。
它在英语文本和代码上的性能与 GPT-4 Turbo 的性能相匹配,在非英语文本上的性能显着提高,同时 API 的速度也更快,成本降低了 50%。
GPT-4o,这是其 AI 模型的最新演变。GPT-4o 建立在 GPT-4 的基础上,GPT-4o 旨在产生更大的影响,GPT-4o 旨在产生更大的影响。“o”代表“omni”,反映了它在无缝体验中统一语音、文本和视觉的能力。展开评论2