微软 GenAI 开发被曝遭遇瓶颈,转攻 AI 安全推出「抗幻觉神器」

165 阅读7分钟
【新智元导读】近期微软的高层人员调动以及新工具的推出,可能暗示着其 AI 战略的转向。

微软已经有一段时间没有向外界透露任何有关 GenAI 的讯息了。

在减少对 OpenAI 技术依赖的过程中,GenAI 本该是微软的重要战略,但科技媒体 The information 了解到的微软组织变革表明:

微软在自主开发和训练生成式人工智能上遇到了瓶颈。

而同期微软推出的 AI 相关的新工具,也佐证了其在生成式人工智能业务上的战略转向。

前途未卜的合成数据与蒸馏模型

今年的早些时候,微软似乎在对先前内部的一个名为「蒸馏」项目加倍投注。

这个项目的内容大致为先使用 OpenAI 的模型生成大量数据,然后再利用这些数据来训练类似 ChatGPT 的模型。

微软的目标是让这些模型在某些任务上几乎能达到与 OpenAI 模型相同的表现,这样微软就可以根据自身的需要,对自己开发的模型进行「公平市场价格」的定价和自由出售。

在人工智能的开发中,业内几乎都会使用某种形式的人工智能生成的训练数据,即合成数据。

作为 OpenAI 的主要资助者,微软拥有充分的自由来使用 OpenAI 的模型。

因此,微软的研究人员能够要求 GPT-4 生成数百万段与教科书质量类似的文本段落,包括文章和教科书风格的练习,这些练习附有解释的问答内容。

随后,微软便可以利用这些数据来训练一个较小但其性能表现与 GPT-4 相似的模型。

而大约从一年前开始,微软就通过提炼 OpenAI 的模型开发了 Phi。

Phi 不仅开源,运行成本也更低。

微软研究人员在他们的论文中表示,虽然 Phi 的规模要小得多,但其性能几乎可以与 OpenAI 的主要旗舰模型相媲美。

微软 CEO 纳德拉将 Phi 形容为微软在 AI 领域「掌握自己命运」的一种方式。

他向股东们表示,Phi 在 Azure 上与投资公司贝莱德、阿联酋航空以及医疗软件公司 Epic 等客户进行了合作。

在某些情况下,特别是当问题相对简单、不需要复杂解答时,微软用 Phi 替代了 OpenAI 的模型,例如在 Bing 等产品中取代 GPT-4 作为 AI 聊天机器人。

在 Phi 初步成功之后,今年一月,微软将负责 Phi 的首席研究员 Sébastien Bubeck 从微软研究部门调往一个专注于构建蒸馏模型的新组织。

同年三月,微软以 6.5 亿美元的协议聘请了 Inflection 的 CEO 穆 Mustafa Suleyman 并让他负责公司的消费者 AI 业务后,Bubeck 被调到了苏莱曼所管理的微软 AI 团队。

据两位知情人士称,他负责的是使用 OpenAI 的大型模型来生成训练数据。

然而,最近 Bubeck 已从 Suleyman 的团队离职,重新回到微软研究部门,并再次向研究主管 Peter Lee 汇报工作。

而在八月,负责将 Phi 模型添加到 Azure 和其他微软产品中的 Misha Bilenko 也离职前往了谷歌的 DeepMind AI 团队。

一位微软 AI 研究员认为,这些突如其来的人员变动可能表明,Suleyman 将不再把合成数据和蒸馏视为部门的发展方向以及微软的首要目标。

另一方面,今年五月被寄予期望的大型模型 MAI-1 毫无消息,且 Suleyman 团队之后也再也没有公开发布过任何模型的情况,也佐证了这一战略转向。

微软现如今依然要依靠 OpenAI 的模型来支持自己的人工智能服务,据一些金融机构的预测,微软今年有望在 Azure 上通过转售 OpenAI 的模型获得超 10 亿美元的收入。

值得在意的是,微软近期推出了一项在 Azure AI 上的新服务——

「校正」:人工智能幻觉的纠正工具

现阶段阻碍生成式人工智能在现实中更广泛地应用落地的最大缺陷,就是「幻觉」(hallucinations)。

幻觉是指缺乏基础数据支持的内容的生成,输出误导性的信息。

这种现象尤其与大型语言模型( LLMs )相关。

在医学、自动驾驶等高风险领域,准确的信息至关重要。

虽然人工智能有潜力改善对重要信息的获取,但幻觉可能会导致误解,造成严重的后果。

虽然业内可以通过「过滤」来解决幻觉问题,但这种方法在输出的文本因内容被删减或屏蔽而变得不连贯时,会导致用户体验不佳。

而微软认为,在 Azure AI 内容安全的接地检测(groundedness detection)中引入的一项新功能——校正(correction),能够突破上述局限。

今年三月,微软在 Azure AI 引入了接地检测。它能够将人工智能的输出与原文档进行比较,以识别生成过程中的幻觉内容。

但在用户实际体验这项服务的过程中,一个疑问也随之产生:「对这些检测到的幻觉内容除了屏蔽之外,我们还能做什么?」

为了解决这个问题,微软在接地检测中引入了校正功能,让使用 GenAI 程序的用户能够遇到幻觉之前,实时识别和纠正幻觉。

但校正的运作,需要程序连接到用于文档摘要和给予 RAG 的接地文档。

之后,Azure AI 上的接地检测将通过以下几步运行:

**检测:**首先,Azure AI 内容安全会扫描 AI 生成内容中的无根据部分。

幻觉现象并不是一个完全有或完全无的问题,大多数无根据的输出实际上也包含了一些有根据的内容。

这就是为什么有根据性检测可以精确找到无根据内容的具体部分。

当无根据的内容被识别出来后,模型会高亮显示具体不正确、不相关或虚构的文本。

**推理:**在识别出无根据的段落后,模型会生成解释说明,说明为什么某些文本被标记。

这种透明性非常重要,因为它可以让用户明确无根据的点,并评估其不接地的严重性。

**修正:**一旦无根据的内容被标记,系统会实时启动改写过程。被标记为不准确的部分会被修改,以确保与相关数据源保持一致。

但如果该句子缺少任何与基础文件相关的内容,则可能会被完全过滤掉。

而在用户看到最初的无根据内容之前,修正就已经完成。

**输出:**最后,修正后的内容将返回给用户。

但微软强调,该工具提高的是人工智能生成的内容和源材料之间的一致性,它并不能保证生成的内容可以到达完美的准确性。

毕竟最根本的是数据来源的真实性和客观性。或许,这也是微软决定内部战略转向的原因。

而在构建值得信赖的人工智能的道路上,业界的开发者们还需要更多不同的尝试。

参考资料:

the-decoder.com/microsoft-u…