Google DeepMind在ICML 2024上展示AI前沿技术

0 阅读3分钟

Google DeepMind at ICML 2024

探索AGI、规模化挑战以及多模态生成AI的未来。下周,人工智能(AI)社区将齐聚2024年国际机器学习大会(ICML)。会议于7月21日至27日在奥地利维也纳举行,是一个展示最新进展、交流思想和塑造AI研究未来的国际平台。

今年,来自某中心DeepMind各团队的成员将发表超过80篇研究论文。在我们的展位上,还将展示多模态设备端模型Gemini Nano、名为LearnLM的AI教育模型系列,并演示能协助足球战术的AI助手TacticAI。

以下是我们介绍的部分口头报告、焦点报告和张贴报告:

定义通往AGI的路径

什么是通用人工智能(AGI)?这个词描述了一个至少在大多数任务上与人类能力相当的AI系统。随着AI模型不断发展,定义AGI在实践中的形态将变得越来越重要。

我们将提出一个对AGI模型的能力和行为进行分类的框架。根据其性能、通用性和自主性,我们的论文对系统进行了分类,范围涵盖非AI计算器、新兴AI模型以及其他新颖技术。

我们还将证明,开放性对于构建超越人类能力的通用AI至关重要。尽管最近的许多AI进步是由现有的互联网规模数据驱动的,但开放系统可以产生扩展人类知识的新发现。

在ICML上,我们将演示Genie,这是一个能够根据文本提示、图像、照片或草图生成一系列可玩环境的模型。

高效且负责任地扩展AI系统

开发更大、能力更强的AI模型需要更高效的训练方法、更贴近人类偏好的对齐以及更好的隐私保护措施。

我们将展示如何使用分类而非回归技术,使扩展深度强化学习系统更容易,并在不同领域实现最先进的性能。此外,我们提出了一种新颖的方法,可以预测强化学习智能体行动的后果分布,有助于快速评估新场景。

我们的研究人员提出了一种保持对齐的方法,减少了对人工监督的需求;并提出了一种基于博弈论的新方法来微调大语言模型(LLMs),使LLM的输出更好地与人类偏好保持一致。

我们批评了在公共数据上训练模型并仅用“差分隐私”训练进行微调的方法,并认为这种方法可能无法提供其所声称的隐私性或实用性。

VideoPoet是一个用于零样本视频生成的大语言模型。

生成式AI和多模态领域的新方法

生成式AI技术和多模态能力正在扩展数字媒体的创意可能性。

我们将介绍VideoPoet,它使用LLM从多模态输入(包括图像、文本、音频和其他视频)生成最先进的视频和音频。

并分享Genie(生成式交互环境),它可以根据文本提示、图像、照片或草图,为训练AI智能体生成一系列可玩环境。

最后,我们介绍MagicLens,这是一个新颖的图像检索系统,使用文本指令检索具有超越视觉相似性的更丰富关联的图像。

支持AI社区

我们很自豪能够赞助ICML,并通过支持由“AI中的残障人士”、“AI中的酷儿”、“AI中的拉丁裔”和“机器学习中的女性”领导的倡议,来培育AI和机器学习领域的多元社区。

如果您参加会议,请访问某中心DeepMind和某中心Research的展位,与我们的团队见面,观看现场演示,并了解更多关于我们研究的信息。FINISHED