人工智能的伦理介绍

146 阅读11分钟

人工智能的伦理

人工智能伦理是现在每个人都在谈论的事情。自动驾驶汽车、人脸识别和批判性评估系统都是最前沿的解决方案,引起了很多伦理方面的考虑。在这篇文章中,我们将讨论今天的人工智能所面临的常见问题,以及人工智能伦理学家如何试图解决这些问题。

什么是人工智能?

我假设,如果你正在阅读这篇文章,你以前遇到过 "人工智能 "这个词,并且知道它的含义。如果没有,请你看看我们关于人工智能的帖子,会有帮助。

也有可能'道德'这个词对你来说有点不清楚。不用担心--这里有一个简单的解释。

伦理学是什么意思?

伦理学,也叫道德哲学,是哲学的一个分支,研究正确和错误的行为。它谈论什么是好的和坏的,什么是正义的和不正义的,诸如此类。总而言之,伦理学的目标是提出我们可以追求的价值观,让我们的生活没有遗憾。

伦理学有三个主要的分支领域。

规范性伦理学

规范性伦理学规范了行为。它告诉我们什么是正确的,什么是错误的。例如,"黄金法则 "就是规范性伦理的一个例子:像对待自己想要的那样对待他人。

应用伦理学

应用伦理学研究个人、政治或社会生活中经常出现的道德问题和困境。应用伦理学问题的一个例子是安乐死是否应该合法化。

元伦理学

元伦理学研究伦理学的理论。它定义了概念,争论伦理知识是否可能,等等。

人工智能的伦理学属于应用伦理学的领域。它关注两件事:创造人工智能的人类的道德行为,也关注机器的行为。

为什么伦理学在人工智能中很重要?

人工智能是一种工具。它是好是坏,取决于你如何使用它。让人工智能治愈癌症?好。偷取无辜公民的信用卡密码,坏。毕竟,偷窃是违法的(咄)。

但是,当事情没有那么明显时,该怎么办呢?例如,如果我们生活的世界中,虚拟助理设计师大多是男性,他们会给他们的机器人分配女性的性别,并教他们对骚扰或粗鲁的评论用调情的笑话来回应呢?哦,等一下。

创建虚拟助理并不违法。甚至期望女性以某种方式行事也不违法。但建立有偏见的技术在道德上是否可以接受?

人工智能中的道德是用来告诉我们什么时候我们做错了事情。即使法律没有任何反对意见。法律永远无法与科学发展赛跑,总是扮演着追赶者的角色,因此需要道德的要求。科技公司有责任对自己施加界限。

人工智能中的道德方法是什么意思?

每个社会都遵循某些规则。其中一些已经进入了法律体系。例如,在许多国家,侵犯版权是非法的。

同时,有些规则并没有写在任何地方。没有法律规定你要帮助一个迷路的5岁孩子找到他的父母,或者帮助一个老太太过马路。但即使没有人看,你还是会这样做。

人类的道德价值观比对法律惩罚的恐惧更有效地监督他们的行为。而且我们并不是唯一的人。

多年来,科学家们认为,唯一具有同情心的物种是人类。他们进行了多项实验,试图使动物,从灵长类动物到大象和老鼠,相互帮助。并没有在它们的关系中发现多少利他主义。

弗朗西斯库斯-伯纳德斯-玛丽亚(Frans)-德瓦尔并不同意。他花了几十年时间研究灵长类动物的社会关系。他发现,在许多情况下,动物只是不明白如何参与科学家提出的复杂互动。当德瓦尔和他的研究团队想出了更多对动物用户友好的实验时,他们有了许多有趣的发现。大象被证明有能力进行团队合作,黑猩猩表现出对私有财产的极大尊重。其他动物如海豚和倭黑猩猩也是相当亲社会的。所有这些都是因为从长远来看,自私的行为并不能为物种的保护带来好处。

今天,我们与人工智能并肩生活。尽管今天的人工智能并不像《底特律》世界中的机器人那样智能。成为人类》中的机器人,但它已经积极参与到重要的决策中。例如,在COVID-19危机中,是人工智能算法决定了谁更值得获得医疗帮助和物资

如果我们让人工智能为我们做出如此重要的决定,我们需要确保它是站在我们自己这一边。即使是在合法合规的情况下,人工智能仍然可能是有害的。人工智能应该从我们这里继承道德价值观,基本上,要学会如何成为一个好人实体。

人工智能伦理学的基本原则

今天,人工智能伦理领域正在被积极研究。在所有的伦理和哲学框架中,有两个占主导地位:功利主义和义务主义。

功利主义

功利主义是由J.S. Mill和J.Bentham制定的衡量一个人的行为是否正当的哲学方法。在它的基础上,有一个信念,即所有的人都希望最大限度地增加快乐和减少痛苦。因此,一个好的行动就是能使最多的人获得最大的快乐。然而,将功利主义应用于现实生活中,我们有可能开发出一个根本没有人性的人工智能程序。例如,为了许多人的利益而杀死一个人是功利的,但对许多人来说,在道德上是错误的。

义务论

义务论是一种伦理理论,代表了一套明确的规则,其中道德被定义为某人遵守这些规则的程度。例如,基督教可以是义务论的一个例子,一个人的道德是由他们是否遵守《十诫》来衡量的。

义务论通常与伊曼纽尔-康德有关。他认为,因为每个人都有理性的能力,所以他们有固有的尊严。因此,侵犯或不尊重这种尊严是不道德的。例如,我们不应该把一个人仅仅当作 "达到目的的手段"。

今天大多数伦理学家认为,义务论是应该用来开发人工智能系统的方法。我们可以在他们的程序中编码规则,这将保证人工智能永远站在我们这边。但是,密切关注一套预先定义的规则的后果仍然可能是相当不可预测的。很难制定肯定不会让所有宇宙变成回形针的规则。

这就是为什么不提科幻作家艾萨克-阿西莫夫也是不可能的。早在1940年代,他就提出了 "机器人三法则",指导他的 "机器人系列 "中机器的道德行为:

  • 机器人不得伤害人类,也不得因不作为而让人类受到伤害。
  • 机器人必须服从人类的命令,除非这种命令与第一法则相冲突。
  • 一个机器人必须保护自己的存在,只要这种保护不与第一或第二定律相冲突。

尽管已经过去了很多年,许多人工智能研究人员和开发人员都认为,我们今天的目标不应该离遵循这些规则太远。阿西莫夫定律基本上包含了人工智能伦理学的核心原则,如有益和无害、公平和隐私保护。

人工智能的伦理问题是什么?

以下是一些使伦理学成为当今人工智能的必要领域的问题。

公平和偏见

当我们谈论有关人工智能算法的问题时,公平和偏见是最常提到的问题之一。

我们希望平等对待所有的人。首先,因为像伊曼纽尔-康德一样,我们相信所有人类都值得尊重。其次,因为公平是拥有一个稳定社会的根本。当一个性别或种族上的少数人感到受到歧视时,就会在社会上造成困扰和不安。人工智能正慢慢成为社会机构之一,大多数人都希望他们的社会机构是公平的(或者,至少是努力做到公平)。

然而,公平的问题是,它是非常复杂的。你如何用一套具体的规则来定义公平,以便让一个算法能够理解?

偏见是实现公平的一个障碍。当我们谈论人类时,通过认知偏见,我们通常是指对一件事、事件、一群人的一些偏袒。偏见的危险在于,通常人们并没有意识到它--对他们来说,这只是感觉上的常识

计算机也会有偏见。有时是因为有偏见的人所编码的算法逻辑。但更多时候,人工智能因为数据的异常而对某个群体有偏见。例如,亚马逊的招聘系统摒弃了女性的简历,并不是因为开发人员不希望他们被雇用,而是因为历史上很少有女性担任这些职位。

透明度

想象一下,你为地铁建立了一个面部识别系统,以自动识别和捕捉罪犯。它工作得很好,将乘客与被要求的罪犯的脸相匹配,直到有一天它犯了一个错误。又一次,又一次。你不得不保留几个无辜的人,并邀请一个开发人员团队来修复系统中导致其失败的错误。

但是对于人工智能,并不总是能够告诉它为什么会做出某种结论。面部识别系统通常以神经网络为基础,通过所谓的 "黑匣子 "原则工作。你给它提供一些数据,要求它搜索模式,但它会为自己学习什么规则几乎是不可能预测的。更重要的是,你不能打开它,看到它使用的规则。

例如,用于诊断疾病的人工智能计算机视觉可以为在医疗办公室拍摄的照片提供更频繁的积极诊断。如果一个人已经在医疗办公室,那么一个人生病的概率就会更高。但是,很明显,在医生办公室里并不会导致人们生病。

当这些系统被用来做出影响人们生活的决定时,这种缺乏可见性是一个问题。一个开发团队简直可以花上几年的时间,直到他们找到系统中错误预测的原因。

此外,还涉及到一个道德问题:病人不仅应该知道他们的诊断,还应该根据医生对这一诊断的决定被告知。想象一下这样的情况:一个危重病人的家属被告知他们的亲人将被从生命维持机上关掉。他们问这是否有必要,也许还可以做些什么。而得到的答案是。"我们不知道,我们的人工智能告诉我们这将是更理想的。或者想想风险评估系统:如果你在审判中,你可能想知道,你不会因为你的肤色而受到更严厉的惩罚。

责任感

今天的机器会犯错,而且很可能在未来继续犯错。但这些错误的责任变得模糊不清。例如,目前还不清楚谁该对自驾车事故负责:汽车制造商、车主,还是算法本身?

在人工智能伦理学中,责任被理解为三个方面:

  • 哪些人(或一群人)要对算法或人工智能的影响负责?
  • 社会如何以法律上和道德上可接受的方式使用和发展人工智能?
  • 我们应该向人工智能系统本身要求什么样的道德和法律责任?

责任可以是法律的,也可以是道德的。法律责任描述了必须进行法律惩罚的事件和情况。当行为人的罪行被执法机构证明时,行为人要对某个行为负责。

道德责任和法律责任并不总是同一回事。在哲学中,道德责任是决定什么行为值得赞扬的能力。这种内在的责任是内在的地位:虽然存在于社会中的规范可能会影响它,但每个人都自己决定他们认为有道德约束力的价值。