如何在你的公司开始负责任的人工智能实践

95 阅读7分钟

负责任的人工智能是一个最新的术语,描述了为生产符合道德的人工智能和机器学习算法所做的努力。为什么要从 "道德的人工智能 "转变为 "负责任的人工智能"?谁能决定什么是道德的,什么是不道德的?由于每个人都根据自己的道德和价值观来决定什么是道德,所以没有一个明确的、商定的标准来围绕新技术的发展。技术专家们现在不说道德,而是采用负责任的技术实践来更好地描述以积极和减少伤害的结果为中心的模式。

对于许多公司来说,通往负责任的人工智能的道路缺乏明显的前进道路。数据科学家或机器学习工程师如何确保他们的工作不会造成伤害或比之前的工作伤害更小?是否有一种工具可以看出数据是否有偏见?经理人如何确保他们团队的工作成果是以最佳意图部署的?我发现,没有一套权威的工具或流程供技术专家用来充分回答这些问题。大多数公司会公布其负责任的人工智能标准和原则,但要获得有关其实践的具体信息并不容易。这表明,没有一种方法可以创建或执行负责任的人工智能实践,但有一些提示可以帮助指导有效的负责任的人工智能实践。

以下是你可以采取的四个步骤,在你的公司开始实施负责任的人工智能实践:

1.)建立一个跨部门的团队--

对于如何实施和执行负责任的人工智能,来自不同部门的人有着与生俱来的不同意见和观点。获得这种多样化的观点可以让负责任的人工智能团队考虑每个部门将如何与客户和科学产出互动,从而确定每个部门在最大限度地减少技术造成的潜在伤害方面的作用。每个部门都有一个团队成员可以影响公司文化,因为它让数据科学家和工程师之外的其他人思考和讨论负责任的人工智能,并执行商定的框架。

2.)2.写一份任务声明 --

你的责任人工智能团队的目标是什么?你希望为你的组织完成什么?你将依靠什么原则来指导负责任的人工智能团队的工作?你将如何知道你是否成功以及何时成功?作为一个团队,在早期创建你的使命、愿景、目标和原则,将有助于确定该小组的方向和需要完成的工作。

我们Valkyrie的算法责任小组并没有立即创建这些项目,但回顾过去,我发现一旦我们有了使命宣言,我们的团队就会更加专注。我们能够根据我们的目标来塑造我们的年度目标和团队成员所从事的任务。我们Valkyrie的负责任的人工智能任务是:

"我们努力使我们的解决方案与我们的价值观保持一致,并为改善人类而部署。"

3.)使实践与你的公司价值观相一致 --

在Valkyrie,我们认为我们的价值观不应该只是在我们的网站上的文字,而应该在我们的工作成果和文化中体现出来。由于道德是很难定义的,我们依靠我们的价值观来指导我们的负责任人工智能标准。我曾在一次负责任的技术会议上听到一位演讲者说:"如果你没有价值观,那就去找一些吧!"。确定你的组织的核心价值是什么,并使用它们来指导你的负责任的人工智能实践。一旦你确定了价值观,确定你将如何确保组织的工作与这些价值观保持一致,以创造负责任的人工智能。

在Valkyrie评估潜在客户和科学解决方案时,我们考虑以下问题:

  • 荣誉--我们是否考虑到项目的全部影响,并了解我们自己的偏见?
  • 勇气--我们是否得到了客户的支持,即使需要做更多的工作,方法发生变化,或者我们必须推迟解决方案的实施,我们也会承诺对算法负责?
  • 爱--我们是否为利益相关者提供了利益,并且没有伤害到他们生态系统中的其他人?
  • 希望--我们是否做出了好的工作,并为最佳案例做出了贡献?
  • 好奇心--作为科学家,我们是否能够追求真理?

这些问题的答案可能不是明确的 "是 "或 "否",但发起讨论并让人们公开表达他们的担忧是开始评估潜在解决方案的好方法。

4.)教育你自己和你的团队 -

有许多关于滥用数学和技术的研究论文和书籍,产生有偏见的输出的算法,以及糟糕的数据收集和处理方法。其中许多人讲述了这些有害技术的创造者的故事,他们的目的是好的。寻找你的团队感兴趣或与你的组织的工作有关的文献,以进一步了解负责任的人工智能。我们的算法责任工作组做的第一件事就是买了凯西-奥尼尔(Cathy O'Neal)的《数学毁灭武器》(Weapons of Math Destruction),让我们公司一起阅读和讨论。通过鼓励大家学习这本书,责任人工智能小组影响了我们的公司文化。无论Valkyrie团队成员是否是技术人员,他们都有责任理解负责任的人工智能实践的必要性,以及仅靠良好的意图来运作的后果。

这里有一些其他的资源可以参考:

在对自己和团队其他成员进行教育后,我们决定从一个新的负责任的人工智能工具开始:道德矩阵。我们从Cathy O'Neil那里借用了这个想法,并将其改编为我们的商业用途。我们创建了一个模板供我们的项目团队使用,对他们进行流程培训,然后通过审查项目如何实施来跟进。

当我第一次成为我们瓦尔基里公司算法问责工作组的领导者时,我不知道应该怎么做才能确保我们的科学解决方案的伤害最小。在2022年6月参加了一个有一些科技界大人物出席的会议后,我意识到,我正在做所有正确的事情来领导我的团队实现负责任的人工智能。我们有一群想进一步了解负责任的人工智能的人,我们已经为我们的组织创建了流程,以确保我们的解决方案减少伤害。最重要的是,我们正在询问有关我们工作的潜在影响的问题,目的是为了将伤害降到最低。

我希望这篇博客能鼓励你在你的公司启动负责任的人工智能实践。一个有动力的团队可以放心,只要采取几个小步骤,就能让自己走上正确的道路。

算法责任小组是瓦尔基里公司的一个横向实践,致力于在工作中体现我们公司的价值观。通过我们严格的流程,我们确保卓越,并将科学成果的危害降到最低。要了解更多关于我们的信息,请访问valkyrie.ai或通过以下方式联系我们 inqueries@valkyrie.ai.

关于作者:

Keatra NesbittValkyrie的高级数据科学家和产品经理,她领导算法问责工作组和实习计划。她在北科罗拉多大学获得应用数学学士学位,并在Galvanize学习数据科学。在过去的3年里,Keatra将数据科学和深思熟虑的战略结合起来,提供有影响力的解决方案,以解决客户的独特业务问题。