1.OpenAI新模型发展放缓,性能提升有限
根据The Information的最新报道,OpenAI的下代旗舰模型Orion可能不会像前几代产品那样带来显著的突破。尽管该模型的表现超越了GPT-4,Orion的提升程度却远低于GPT-3到GPT-4之间的飞跃。内部员工透露,新模型在许多任务上虽有所提升,但与前代相比并未达到“革命性”的改善,尤其是在复杂任务上显得不够稳定。在编程和逻辑推理等领域的任务中,Orion的表现不如预期,这引发了外界对OpenAI研发效率的疑虑。
今年5月,OpenAI的首席执行官山姆·奥特曼(Sam Altman)曾乐观地表示,新一代模型可能比之前的GPT-4“好得多”。然而,随着训练过程的推进,Orion在核心性能和任务完成的准确度上并未达到内部员工的预期标准,进展速度也较为缓慢。业内人士认为,OpenAI模型的研发速度放缓,可能与训练过程中高质量数据的逐渐枯竭有关。大语言模型(LLM)需要大量多样化和优质的数据来支撑训练,使其具备足够的知识广度和能力。但目前,OpenAI可用的高质量数据已经越来越少。
2.数据短缺与Scaling Laws的局限性
AI发展中一个关键的假设是Scaling Laws:模型性能的提升可通过数据量、算力和模型大小的增加而不断提升。然而,OpenAI的研发人员发现,尽管理论上模型并未达到Scaling Laws的极限,可供使用的数据资源却正逐渐减少。大模型需要的不是普通数据,而是高质量、有深度的内容,用于理解复杂的语言结构、语义关联和背景信息。但在现有条件下,高质量数据正面临枯竭,导致Orion的性能改进开始放缓。
知情人士称,Orion在训练中使用的部分数据是由GPT-4和推理模型o1生成的合成数据。这种AI生成的数据虽能够在一定程度上缓解数据不足的问题,但也存在局限性。例如,合成数据可能会导致Orion在某些任务上的表现趋于保守,失去新模型应具备的创新性。Databricks联合创始人Ion Stoica表示:“尽管合成数据可以填补部分空缺,但在需要常识判断或复杂推理的任务上效果有限。”
3.OpenAI应对数据匮乏的策略
为解决数据匮乏的问题,OpenAI成立了一个新的基础团队,由Nick Ryder领导,专注于如何在数据短缺的情况下优化模型性能。团队计划通过进一步利用AI生成的合成数据、强化学习(RLHF)和人类反馈,帮助Orion在任务完成精确度上取得进步。强化学习策略为模型在后期训练阶段提供了更精细的反馈,使其在完成如编程、数学推理等复杂任务时更加稳定。
OpenAI新推出的推理模型o1就是这种策略的成果之一。o1在回答用户问题时能“花时间思考”,通过更多的计算资源提升回答质量。这种方法尽管并未改变模型的底层结构,但能通过引入更多的计算资源提升模型响应的准确性和逻辑性。这一策略被OpenAI研究员Noam Brown称为“扩展新维度”,即通过提升每次查询的成本来获得更优质的输出。但o1模型成本高昂,其价格比非推理模型高出六倍之多,这使其客户群体相对较小。
4.Orion模型的未来与技术挑战
Orion的成本和性能提升不理想的问题在OpenAI内部也引发了担忧。一些员工表示,模型进一步提升需要依赖超高质量的数据,合成数据的补充虽有一定效果,但不足以支持Orion成为颠覆性的新一代模型。此外,模型的扩展并非无上限,而是面临成本与收益间的平衡。
奥特曼在10月份的开发者活动上指出:“我们希望通过推理模型o1解锁新的能力,比如协助完成科学研究和更复杂的代码编写等。”然而,他同时也承认,尽管推理模型在特定任务中具有明显优势,但其高昂的运行成本限制了其广泛应用。
值得一提的是,OpenAI安全团队负责人Lilian Weng也于近日宣布离职。Weng在职期间负责AI模型的安全性设计,但在今年的《自然》杂志评估中,o1模型被指出在某些任务中存在安全性问题。比如,模型未能准确识别爆炸性物质的危害,并错误建议某些化学品控制方案。
5.总结
综上所述,OpenAI的新模型Orion的研发遇到了一系列挑战:高质量数据资源的匮乏限制了性能提升,合成数据带来的提升作用有限,而成本与收益的平衡使得推理模型o1的实际应用范围受限。尽管Orion在处理语言任务上表现更为优异,但其在特定任务如编程和复杂推理中的表现仍然较难令人满意。Orion的未来发展将取决于OpenAI如何进一步利用有限资源提升模型性能,同时在不断上升的成本和数据供给不足之间找到平衡点。
6.订阅ai产品的方法
方法:使用这个WildCard平台,这个平台最近更新了域名,为了合法合规,稳定性是有保证的
平台地址:WildCard