某机构与约翰霍普金斯大学今日宣布了首批博士奖学金和教师研究奖的获得者,这是JHU + 某机构交互式人工智能计划的一部分。该计划于四月启动,设在约翰霍普金斯大学怀廷工程学院,旨在推动人工智能领域的突破性进展,重点聚焦于机器学习、计算机视觉、自然语言理解和语音处理。
“我们对来自JHU教职员工和学生的提案及博士奖学金提名的高质量感到非常高兴,”Alexa AI副总裁Prem Natarajan表示。“毫无疑问,该计划将推动交互式和多模态人工智能领域取得新的进展。”
作为该计划的一部分,年度某机构奖学金将授予怀廷工程学院的博士生。某机构还资助由JHU教师领导的研究项目,与博士后研究员、本科生、研究生及研究人员进行合作。今年的获奖者是首届入选者。
“我们很高兴我们的学生和教师有机会在交互式人工智能这一重要领域与某机构合作,”约翰霍普金斯大学怀廷工程学院研究与转化副院长Larry Nagahara表示。“利用我们在该领域的集体专业知识,将推动人工智能的发展,并为我们的社会带来诸多益处。”
以下是奖学金获得者及其研究,以及教师奖获得者及其研究项目的列表。
某机构奖学金获得者
Kelly Marchisio 正在攻读计算机科学博士学位,师从计算机科学教授Philipp Koehn。
“词嵌入空间是现代自然语言处理系统的关键组成部分。我的工作重点是理解和利用嵌入空间的几何特性,目标是创建更小、更有用、且在语言和领域间更具普适性的空间。”
Arya McCarthy 正在攻读计算机科学博士学位,师从计算机科学教授David Yarowsky。
“我称我的自然语言处理愿景为‘千语言处理’:不仅对数千种语言进行建模,还让它们的集体证据和共性相互加强。为了实现这一目标,我创建了神经机器翻译模型;形态学词元化器、标记器和屈折变化器;甚至对跨越数千种语言的颜色术语进行了深入分析,旨在进一步推进这些前沿。这一愿景源于对说话者需求的现实考量以及当前自然语言处理未能满足这些需求的现状。世界上约有7000种已识别的语言,其中至少有4000种拥有数字化书写文本。尽管数据如此丰富,但通常远少于100种语言拥有标准的自然语言处理工具。”
Carolina Pacheco Oñate 正在攻读生物医学工程博士学位,师从某机构学者、Herschel Seder生物医学工程教授René Vidal。
“我对将计算机视觉推广到数据或标注有限的应用领域感兴趣,这不仅关系到传统计算机视觉任务中的长尾事件,也关系到生物医学等其他具有社会影响力的领域。我相信深度学习与概率模型及领域知识的结合,能够在容量与结构之间取得恰当的平衡,从而在自监督和弱监督框架下从有限数据中学习。”
Desh Raj 正在攻读计算机科学博士学位,师从电气与计算机工程副教授Sanjeev Khudanpur。
“自从30多年前第一个自动语音识别系统被构建以来,语音技术的进步已经催生了如自动化客户支持和语言学习等应用。通过对语音增强和鲁棒语音处理的多年研究,这些系统现已部署在家庭音箱、车载控制等多种场景中。尽管如此,目前的系统仍是被动的倾听者,它们转录单说话者的语音,并将其输入下游的语言理解组件。未来的对话智能预计将包含能主动参与人类对话的系统。虽然此类系统需要多种模态的智能——如用于上下文处理的对话系统、从语音和视频中识别情绪、常识推理等——但它们识别自由流动的多方对话的能力,是需要解决的核心组成部分。”
Anshul Shah 正在攻读计算机科学博士学位,师从彭博杰出教授、电气与计算机工程及生物医学工程教授Rama Chellappa。
“我目前的研究广泛涉及基于姿态的动作识别、视频理解、自监督学习和多模态学习领域。我的研究致力于对这些研究领域做出基础性贡献,获取新的见解并推动前沿发展。我的研究兴趣与AI2AI在交互式人工智能技术领域的重点非常契合,特别是在计算机视觉和多模态人工智能方面。”
Jeya Maria Jose Valanarasu 正在攻读电气与计算机工程博士学位,师从电气与计算机工程副教授Vishal M. Patel。
“用于计算机视觉的深度学习方法在视觉识别领域取得了显著进展。其成功的主要原因之一是这些模型训练所用数据的规模。为每个新问题或应用标注新的真实数据效率非常低。此外,当前的视觉系统在训练期间未见过的数据分布上表现不佳。这个问题被称为领域自适应,对于模型在实际应用中的部署至关重要。此外,当模型在推理过程中适应新数据时,这种适应需要快速,在测试时重新训练模型是不合理的。因此,我们需要关注少样本或更好的零样本学习来实现自适应。”
教师研究奖获得者
Mark Dredze,约翰·C·马龙计算机科学副教授:《将大语言模型的知识表示与信息提取系统集成》
“在过去几年中,捕捉语言模式的新型人工智能模型在从语言中学习信息方面变得非常出色。本项目探讨如何利用这些模型学习到的信息来指导语言数据的实际应用,例如在产品评论中识别重要特征或特性。该奖项将使我们能够探索如何利用最新进展来帮助改进语言技术的各种应用,从而推动语言建模的极限。”
Philipp Koehn,计算机科学教授,与Kenton Murray,卓越人类语言技术中心研究科学家共同获得:《评估多语言机器翻译的多语言性》
“深度神经网络在人工智能中的普及,使得研究人员和工程师能够构建可在大量语言组之间自动翻译的系统,而无需为每种语言分别构建模型。然而,一个大型通用模型的局限性尚不完全清楚。我们旨在研究这类人工智能模型的前沿。”
Anqi Liu,计算机科学助理教授:《通过分布鲁棒学习进行在线领域自适应》
“本项目旨在通过建模不确定性,实现人工智能算法的快速和鲁棒自适应。该奖项使我能够致力于解决具有现实世界影响潜力的基础研究问题。”
Jesus Antonio Villalba López,电气与计算机工程助理研究教授:《通用语音处理模型》
“本项目将研究如何利用大规模人工智能模型高效提取语音中包含的信息。成果将是一个能够将语音转录为文本,并确定说话者身份、语言和情绪状态等的通用模型。”
Soledad Villar,应用数学与统计助理教授:《绿色人工智能:通过利用对称性实现强大而轻量的机器学习》
“在本项目中,我们研究在机器学习模型设计中使用对称性和低维结构。强制执行这些数学结构将使我们能够减少训练和评估机器学习模型所需的能耗、时间和数据量,同时保持(甚至提高)其性能。”
Laureano Moro-Velazquez,语言与语音处理中心助理研究教授:《改善非典型语音人群的口语理解》
“在本项目中,我们将创建一个新的数据集,并开发新的语音技术,旨在改善非典型语音和言语障碍人群的生活。目前几乎没有公开的非典型语音数据集,而创建这些数据集对于为受影响人群开发新的辅助技术至关重要。该奖项将使我们能够创建这样的数据集,这对于我们以及许多研究非典型语音的其他团队都将非常有用。”
Mahsa Yarmohammadi,语言与语音处理中心助理研究科学家:《利用自动投影和人工监督快速创建多语言数据集》
“人工智能,特别是自然语言处理,需要大规模的数据来学习强大的模型。除了英语等高资源语言外,其他语言可能缺乏此类数据。在本项目中,我们研究通过将一种语言的现有数据集自动翻译并对齐到多种其他语言来快速创建多语言数据集。我们还将研究人工监督在提高数据质量方面的作用。一旦创建了这些资源,我们打算使用它们来联合训练单一的多语言模型,以完成跨语言自然语言处理任务。”
Alan Yuille,彭博杰出认知科学与计算机科学教授:《用于少样本学习的弱监督多模态变换器,并推广到新领域和细粒度任务》
“自监督和弱监督变换器已被证明对多种视觉、语言和视觉-语言任务非常有效。本提案针对三个挑战。首先,提高标准任务的性能,尤其是在研究较少的细粒度任务上(例如,对象属性和部分)。其次,开发分词器方法以实现少样本,乃至理想的零样本学习。第三,调整这些方法,使其能够推广到新领域和分布外的情况。我们提出了五种策略来实现这些目标,包括扩展基于分词器的方法、修改变换器结构、增加文本注释以帮助这些困难任务,以及使算法能够泛化到域外和分布外情况的技术。”FINISHED