关于 OpenAI 的一切消息,官方这次全回应了!!
就在刚刚,CEO 奥特曼携 4 大高管集体亮相 reddit 有问必答活动(AMA ),挨个回复了大家对 OpenAI 主要产品、AGI 路线规划等提问。
具体阵容包括,首席产品官 Kevin Weil、高级研究副总裁 Mark Chen、工程副总裁 Srinivas Narayanan 和首席科学家 Jakub Pachocki。
如此豪华阵容也当即引来大量关注,仅过去几小时,reddit 已有 4000 多条网友留言。
先来个省流版,在这次活动上,OpenAI 团队主要透露了:
-
年底将会有重大更新,但不会命名为 GPT-5
-
当前的硬件可以实现 AGI
-
缺少计算资源是阻碍产品推迟的主要因素
-
图像生成模型 DALL-E 的下次更新值得期待,但目前无发布计划
-
让 ChatGPT 自主执行任务将是明年一大重点
-
Sora 还需要完善,暂无明确发布时间表
-
o1 系列和 GPT 系列将同步推进,未来也可能整合
-
o1 满血版即将推出
-
……
好家伙,这次的信息密度有亿点高,准备好瓜子咱们接着唠(doge)。
OpenAI 回应一切
一上来,网友们就开始了贴脸开大,纷纷喊话对面的 OpenAI 团队:
你还记得大明湖畔的 Sora、GPT-4o 视频通话、DALL-A…… 吗?
对此,CEO 奥特曼开始诉苦(bushi,承认缺少计算能力是阻碍公司更快交付产品的主要因素。
最近还有报道称,奥特曼和 OpenAI 首席财务官对员工抱怨,微软行动速度不够快,没有提供足够的服务器。
两家的联盟关系也正在逐渐破裂,并开始互相视对方为备胎——
OpenAI 找了甲骨文做额外的云计算供应商,微软也开始在自家产品中接入谷歌和 Anthropic 模型。
除此之外,为了减少对英伟达的芯片依赖,OpenAI 近几个月还在与博通合作开发 AI 芯片,不过预计最早要等到 2026 年才能上市。
多方迹象显示,OpenAI 目前确实在计算能力上面临压力。
不过抛开这点不谈,奥特曼此次自信宣称,人类当前的硬件已经可以实现 AGI 了。
与此同时,更多重点产品消息释出:
首先,奥特曼照例放出重磅烟雾弹,暗示年底可能会发布重要产品,只不过不会将其命名为 GPT-5。
他表示,一方面模型变得越来越复杂了,另一方面有限的算力还需要分配给 “许多伟大的想法”。(传闻 OpenAI 擅长在内部同时推进很多项目)
而对于当前存在的 GPT 和 o1 系列模型,OpenAI 目前会同步开发、发布,不过将来也不排除整合的可能性。
同时,o1 满血版将很快推出。
另外,对于大家一直关注的视频生成模型 Sora,目前还是没有明确的发布时间表。
官方说法是,Sora 还需要进一步完善,需要考虑安全方面的因素。(Sora 负责人前一阵还跳槽谷歌了)
同样的,对于期待值颇高的 GPT-4o 的视频通话功能,以及久未更新的图像生成模型 DALL-E 系列,OpenAI 仍然态度暧昧模糊,能够看出,他们的重点目前不在这些上面。
所以,OpenAI 最近的重点是啥呢?
最新答案来了:AI 搜索。
就在今天,ChatGPT 新增了搜索功能,背后由 GPT-4o 的微调版本提供支撑,而且网页版、手机版、桌面版同时上线。
据介绍,其最主要的亮点是 “快速获取准确答案,并提供相关网页链接”,无需再切换至其它的搜索引擎。
有网友借机提问奥特曼,ChatGPT search 优势何在?我们为什么要放弃传统搜索引擎?
对此,奥特曼认为 AI 搜索主要应用于更复杂的场景,最好能动态呈现自定义网页作为响应。
而且 OpenAI 透露,ChatGPT 搜索仍然使用了微软的 Bing。
最后,OpenAI 明年的重点之一是——让 ChatGPT 自主执行任务。
要知道,隔壁家的 Claude 目前已经能接管我们的电脑了,仅需输入指令,Claude 就能帮我们完成订比萨、做攻略等任务。(OpenAI 要加油了)
网友们还关注这些
除了上面这些大众关切,部分网友也原地开启了许愿模式。
**Q:**GPT-4o 的文本能否扩展?32k 不太够用。
**A:**在努力了!
而且不止 GPT-4o,OpenAI 可能会为 ChatGPT 增加上下文窗口。
**Q:**ChatGPT 可以做但目前还不能做的一件事是什么?
**A:**代替人类,自主理解并执行任务。
**Q:**ChatGPT 的最佳用例以及未来在哪些领域会特别有用?
**A:**发现并治疗疾病,以及加速新的科学发现。
**Q:**是否有计划发布一项新功能,让用户能看到自己在 ChatGPT 被引用的方式和频率?
**A:**会考虑这个好主意,目前没有计划。
**Q:**AGI 是否可以通过已知的神经网络架构实现,或者是否需要新的科学(基础)突破?
**A:**如果架构突破是由现有的 LLM 提出的,这算不算?(暗示新架构也可能由 LLM 提出)
**Q:**高级语音的 API 成本会降低吗?
**A:**语音和其他功能都考虑进一步降低成本。(GPT-4o mini 的成本目前是 GPT-3 的 2%)
**Q:**模型幻觉会成为永久性特征吗?如何应对?
**A:**很难避免,OpenAI 正在使用的解决方案包括:加强出处引用、使用强化学习(模型不产生幻觉时,实行奖励)。
**Q:**对明年的大胆预测?
**A:**使所有基准测试达到饱和。(自信起来)
最后,有人突发奇想,提问奥特曼是否会使用 ChatGPT 来回答上述问题。
结果没想到,还真有。(就 emmm……)
Ilya 看到了什么?
有意思的是,一听到 OpenAI 团队要来个 “知无不言”,大家伙儿不约而同地又问出了那句:
what did Ilya see?
怼到眼前来了,CEO 奥特曼自知躲不过,于是乖巧回复道:
他是一位令人难以置信的有远见的人,他的一些最初想法最终成就了 o1 模型。
嗯,感觉每次回答都一样,大家可以放弃这个问题了 (doge)。
问不出来,真的问不出来……
参考链接:
[1]www.reddit.com/r/ChatGPT/c…
[2]x.com/OpenAI/stat…
[3]news.ycombinator.com/item?id=420…
— 完 —