某机构机器学习大学(MLU)近期推出了一门新课程“负责任AI:偏见缓解与公平性标准”。在这个免费、公开的在线课程中,学员将学习负责任AI的多个维度,包括如何准备数据、在模型训练期间缓解偏见,以及关于偏见缓解和公平性的许多其他方面。
该课程补充了某机构云服务新推出的AI服务卡,后者提供了关于预期用例和局限性的负责任AI文档。
问:请介绍一下这门负责任AI课程。谁可以学习?课程是如何构建的?
答:负责任AI是一门面向技术人员的入门级课程,其目标是解释AI系统中偏见的来源、如何衡量偏见,以及最终如何尽可能地缓解偏见。
学习该课程不需要任何机器学习知识,但如果熟悉Python编程和高中水平的数学知识会有所帮助。除了录播讲座外,我们还为学生提供白皮书、利用某机构云服务的代码示例以及其他在线资源。在最终项目中,学生将实施自己选择的偏见缓解技术,以减少模型对不同子群体在预测结果上的差异性。
该课程提供了大量关于如何构建机器学习模型的基础知识,因此它是学习MLU提供的所有其他课程的良好过渡,这些课程涵盖了从决策树和集成方法到自然语言处理的各个方面。
问:是什么促使您将这门课程添加到MLU的课程体系中?
答:开设这门课程既是由业务需求驱动的,也是出于个人热情。在我自己的工作中,随着越来越多地接触不同的机器学习项目,我注意到会议室里有很多是男性。这让我开始思考:“其他身份群体是否得到了与男性同等程度的考虑?我们是否有足够的多样性和代表性?当机器学习解决方案主要由某一个特定人群开发时,可能会出现哪些问题?”
在业务方面,我们看到了越来越多的监管要求,如欧盟的通用数据保护条例(GDPR)和《AI法案》,或美国的“主要原因框架”。这无疑增加了人们对这一主题的兴趣。与遵守法规同样重要的是,在某机构云服务,我们的目标是负责任地使用和开发机器学习与AI系统。最终,衡量和缓解偏见对于建立信任以及评估AI系统和模型的风险是必要的。未能缓解偏见可能导致信任丧失,并对客户中的子群体造成不利。
问:为什么选择这个主题?
答:机器学习的发展如此迅猛——预计未来还会进一步增长,到2025年,全球在AI技术上的支出预计将达到2040亿美元。它触及到我们客户生活的方方面面。
我们希望确保机器学习模型和API得到负责任地开发和负责任地使用。这门课程也契合新的领导力原则:“成功和规模带来广泛的责任”。
问:您是如何着手准备这门课程的?
答:我希望涵盖机器学习生命周期每个阶段的偏见问题。在开始为课程收集材料时,我注意到没有任何免费的课程能够从理论和代码两个方面涵盖完整的机器学习流程。
许多其他课程只关注一个子组件,例如在训练模型之前衡量偏见。我想为学生提供实践技能和代码示例,涵盖从机器学习问题的构思到部署的整个生命周期的每个阶段。
问:有没有关于偏见如何在机器学习中引发问题的例子?
答:人们试图解决的一个常见机器学习问题是分类,模型会提供不同类别的结果,例如“批准”或“拒绝”,或者某人是否会看到广告。
一个机器学习模型对于一个由具有不同属性的个体组成的子群体,其表现可能远好于另一个子群体。关键是要有一些公平性的衡量标准,我们希望在不同的子群体之间强制执行这些标准,以尽可能地减少差异。
问:目前您从学生那里得到了哪些反馈?
答:总的来说,我们得到的反馈非常积极,就讨论的活跃程度而言,这是我们参与度最高的课程之一。
对许多学生来说,一个“顿悟”时刻是,你可以让一个算法变得公平,但这并不意味着它的性能很好。例如,你可能有一个拒绝所有申请人的模型。从技术上讲,这是公平的——每个人都得到相同的结果——但这显然也是不可取的。学生们常常惊讶地发现,需要两个指标来评估机器学习模型:性能和公平性。两者缺一不可。
问:您希望学生从这门课程中学到什么?
答:我希望他们明白,没有唯一的正确方法。有许多不同的偏见缓解技术,这对于机器学习生命周期的每个组成部分都是如此。关键在于尝试理解偏见的来源,而不是盲目地假设不存在偏见。
我还希望学生认识到,他们可以在实践中使用一些科学方法来帮助缓解偏见。很多时候,人们观察甚至量化了偏见问题,但他们不知道该如何处理。这门科学非常新,但它正在迈出巨大的步伐,并且已经达到了可以在实践中用于缓解偏见的地步。FINISHED