OpenAI 和其他领先的 AI 公司正在开发新的训练技术,以克服当前方法的局限性。这些新技术解决了在开发更大、更强大的语言模型时出现的意外延迟和复杂性,专注于类似人类的行为,以教会算法“思考”。
据报道,这些新的训练技术由十几位 AI 研究人员、科学家和投资者领导,是 OpenAI 最近的“o1”模型(以前称为 Q* 和 Strawberry)的基础,有可能改变 AI 开发的格局。报道的进展可能会影响 AI 公司持续需要的资源类型或数量,包括用于辅助 AI 模型开发的专用硬件和能源。
o1 模型旨在以模仿人类推理和思考的方式解决问题,将众多任务分解为几个步骤。该模型还利用 AI 行业专家提供的专门数据和反馈来提高其性能。
自 OpenAI 于 2022 年推出 ChatGPT 以来,AI 创新激增,许多科技公司声称现有的 AI 模型需要扩展,无论是通过增加数据量还是改进计算资源。只有这样,AI 模型才能持续改进。
现在,AI 专家报告了 AI 模型扩展的局限性。2010 年代是扩展的革命性时期,但 AI 实验室 Safe Superintelligence (SSI) 和 OpenAI 的联合创始人 Ilya Sutskever 表示,AI 模型的训练,特别是在理解语言结构和模式方面,已经趋于平稳。
“2010 年代是扩展的时代,现在我们又回到了奇迹和发现的时代。现在,扩展正确的事情更重要,”他们说。
近年来,AI 实验室的研究人员在开发和发布比 OpenAI 的 GPT-4 模型更强大的大型语言模型 (LLM) 方面遇到了延迟和挑战。
首先,训练大型模型的成本通常高达数千万美元。而且,由于出现的复杂情况,例如由于系统复杂性导致硬件故障,对这些模型运行方式的最终分析可能需要数月时间。
除了这些挑战之外,训练运行还需要大量能源,这通常会导致电力短缺,从而扰乱流程并影响更广泛的电网。另一个问题是大型语言模型使用的数据量巨大,据报道,AI 模型已经用尽了全球所有可访问的数据。
研究人员正在探索一种称为“测试时计算”的技术,以在训练或推理阶段改进当前的 AI 模型。该方法可以涉及实时生成多个答案,以决定一系列最佳解决方案。因此,该模型可以为需要类似人类的决策和推理的困难任务分配更多的处理资源。目标是使模型更准确、更强大。
帮助开发 o1 模型的 OpenAI 研究员 Noam Brown 分享了一个例子,说明新方法如何实现令人惊讶的结果。在上个月于旧金山举行的 TED AI 大会上,布朗解释说,“让机器人在扑克牌游戏中思考 20 秒,其性能提升效果与将模型扩大 10 万倍并训练 10 万倍的效果相同。”
这不仅仅是增加模型大小和训练时间,还可以改变 AI 模型处理信息的方式,从而产生更强大、更高效的系统。
据报道,其他 AI 实验室一直在开发 o1 技术的版本。其中包括 xAI、Google DeepMind 和 Anthropic。AI 领域的竞争并不是什么新鲜事,但我们可以看到新技术对 AI 硬件市场产生重大影响。像 Nvidia 这样的公司,由于产品需求旺盛,目前在 AI 芯片供应方面占据主导地位,可能会特别受到更新的 AI 训练技术的影响。
Nvidia 在 10 月份成为全球最有价值的公司,其财富增长很大程度上可以归因于其芯片在 AI 阵列中的使用。新技术可能会影响 Nvidia 的市场地位,迫使该公司调整其产品以满足不断变化的 AI 硬件需求。这可能会为推理市场的新竞争对手打开更多渠道。
人工智能发展的新时代可能即将到来,其驱动力是不断变化的硬件需求和更高效的训练方法(例如 o1 模型中部署的方法)。人工智能模型及其背后公司的未来可能会被重塑,释放出前所未有的可能性和更激烈的竞争
。