2021年2月10日
2019年,美国国家科学基金会(NSF)与某机构宣布合作,共同加速AI公平性研究。双方承诺在未来三年内各投入最高1000万美元用于资助相关项目。去年,NSF公布了首批获得资助的10个项目,35名研究人员获得资金支持,研究涵盖四个广泛领域:确保算法及其集成系统的公平性——从公平性的定义与量化开始;AI算法的问责制与透明度;利用AI促进社会公平;以及确保人人均可享受AI带来的益处。
今年,NSF公布了第二批获得资助的37名研究人员,他们将专注于11个研究项目,涵盖一系列主题,包括:理论与算法基础;人类与AI系统交互的原则;自然语言理解和计算机视觉等技术;以及招聘决策、教育、刑事司法和人类服务等应用。
某机构自然理解部门副总裁表示:“我们很高兴看到NSF遴选出这批才华横溢的研究人员,他们的研究工作融合了多元视角。随着AI技术在我们的日常生活中变得越来越普遍,AI公平性已成为一个日益重要的科学探索领域。我们很高兴能与NSF合作,通过支持世界顶尖研究团队的工作来加速该领域的进展。”
NSF信息与智能系统部门主任表示:“NSF正在与某机构合作,支持今年这批AI公平性项目。理解如何基于公平、透明和可信赖的原则设计AI系统,将拓展AI应用的边界。这将帮助我们建立一个更加公平的社会,让所有公民都能成为这些技术的设计者并从中受益。”
关于该“AI公平性”计划的更多信息,可访问NSF官网及其计划更新页面查看。以下是2021年度获奖者名单及其项目概述。
人机协同的机器学习公平性研究
“本项目旨在通过建立一个分析、算法和实验框架,来理解自动化机器学习算法所做的公平决策的长期影响。该框架将捕捉序列学习和决策过程、底层用户群体的行为及其动态变化,以及社会福利。”
- 首席研究员:Yang Liu
- 联合首席研究员:Mingyan Liu, Parinaz Naghizadeh Ardabili, Ming Yin
- 机构:加州大学圣克鲁兹分校
- 资助金额:625,000美元
公共部门算法辅助决策的端到端公平性研究
“本项目的目标是开发方法和工具,帮助公共部门组织实施公平公正的政策干预。在住房和刑事司法等领域,影响生命、家庭和社区的关键决策是由包括市政官员、警察和法院法官在内的多种行动者做出的……”
- 首席研究员:Daniel Neill
- 联合首席研究员:Constantine Kontokosta, Ravi Shroff, Edward McFowland
- 机构:纽约大学
- 资助金额:625,000美元
医学公平AI基础:确保患者属性的公平使用
“当前在医学中部署的机器学习模型可能存在违反公平使用原则的情况,从而损害健康结果。本项目旨在通过在医学机器学习部署的关键阶段:验证、模型开发和沟通,来减少公平使用违规行为……”
- 首席研究员:Flavio Calmon
- 联合首席研究员:Elena Glassman, Berk Ustun
- 机构:哈佛大学
- 资助金额:625,000美元
组织众包审计以检测机器学习中的偏见
“本项目将探索三个主要研究问题。第一是研究招募和激励多元群体参与的新技术。第二是为众包工作者开发新的有效指导形式,以发现偏见实例并对其进行归纳。第三是设计综合众包发现的新方法,使开发团队能够理解并有效地采取行动……”
- 首席研究员:Jason Hong
- 联合首席研究员:Motahhare Eslami, Ken Holstein, Adam Perer, Nihar Shah
- 机构:卡内基梅隆大学
- 资助金额:625,000美元
利用机器学习解决人员选拔中的结构性偏见
“如今,美国的人才选拔实践者主要受两方面的知识指导:1)与就业机会相关的法律发展前沿;2)指导人员选拔中公认专业实践的社会、行为和经济科学领域的积累性发现……本研究项目侧重于弥合差距,将机器学习确立为人力资源管理人才选拔系统设计的第三大支柱……”
- 首席研究员:Nan Zhang
- 联合首席研究员:Heng Xu, Mo Wang
- 机构:美利坚大学
- 资助金额:624,485美元
迈向自适应与交互式的后验解释
“本提案有三个关键重点领域。首先,开发一个新的形式化框架,用于生成可定制的自适应解释,以适应感兴趣的群体和用户画像。其次,通过动态整合用户输入,将解释作为一个交互式的沟通过程来促进。最后,改进现有的自动评估指标,如充分性和全面性,并开发新的指标,特别是针对研究不足的全局性解释……”
- 首席研究员:Chenhao Tan
- 联合首席研究员:Yuxin Chen, Himabindu Lakkaraju, Sameer Singh
- 机构:芝加哥大学
- 资助金额:375,000美元
利用AI改善司法可及性以提升公平性
“本项目应用人工智能,通过改善公众获取司法的途径来提升社会公平性。尽管许多AI工具已可供律所和法律部门使用,但这些工具通常由于昂贵的商业付费墙而无法惠及公众和法律服务从业者。研究团队将开发两种工具,使法律资源更易于理解:成文法术语解释支持系统(STATIS)和案例论证摘要系统(CASUM)……”
- 首席研究员:Kevin Ashley
- 联合首席研究员:Diane Litman
- 机构:匹兹堡大学
- 资助金额:375,000美元
公共政策中的公平AI——在教育、刑事司法、健康与人类服务的机器学习应用中实现公平的社会结果
“本项目通过增进对如何以公平和负责任的方式将机器学习方法应用于高风险、现实世界环境的理解,来发挥机器学习服务社会公益的潜力……”
- 首席研究员:Hoda Heidari
- 联合首席研究员:Olexandra Chouldechova, Rayid Ghani, Zachary Lipton, Christopher Rodolfa
- 机构:卡内基梅隆大学
- 资助金额:375,000美元
计算机视觉系统中的整体性偏见缓解研究
“随着人工智能系统越来越多地被应用于改变生活的决策中,例如个人的招聘或解雇、刑期的长短等,人们对这些系统的公平性日益担忧。有必要保证人工智能系统不针对特定人群产生偏见。本项目旨在计算机视觉领域减轻AI偏见,这是推动近期以深度学习为代表的人工智能发展的关键应用领域……”
- 首席研究员:Nuno Vasconcelos
- 机构:加州大学圣地亚哥分校
- 资助金额:375,000美元
通用图像表示中的偏见测量与缓解
“本项目将对当前广泛用作通用视觉表示来源的计算视觉识别方法和模型中存在的社会偏见进行研究……”
- 首席研究员:Vicente Ordonez
- 联合首席研究员:Baishakhi Ray
- 机构:弗吉尼亚大学
- 资助金额:375,000美元
语言技术中的差异量化与缓解
“在这项工作中,我们提出一个简单的问题:我们能否衡量我们所使用的语言多样性在多大程度上影响我们能从语言技术系统中获得的结果质量?这将有助于为语言技术相关的各种任务开发和部署公平的准确性度量标准,鼓励这些技术的最先进进展惠及所有人,而不仅仅是少数人……”
- 首席研究员:Graham Neubig
- 联合首席研究员:Jeffrey Bigham, Yulia Tsvetkov, Geoff Kaufman, Antonios Anastasopoulos
- 机构:卡内基梅隆大学
- 资助金额:375,000美元FINISHED