"每当我听到人们说人工智能在未来会伤害人们时,我就想,是的,技术一般来说总是可以被用来做好事和做坏事,你需要小心你的建造方式......如果你反对人工智能,那么你就在反对更安全的汽车,不会发生事故,你在反对能够在人们生病时更好地诊断。"—马克-扎克伯格,Facebook的CEO
新技术本身并无好坏之分。关键在于人们如何选择使用它。-大卫-黄,杜克大学哲学教授
人工智能促进社会公益--这是一个相对较新的研究领域,处于人工智能和其他一些领域的交叉点。资料来源
从常见的媒体言论中,我们很容易将人工智能(AI)视为一种技术,它将使我们所有人都失去工作,延续歧视,激起分裂,并可能最终导致人类的消亡。然而,我们必须学会将技术本身与它的应用分开。在不涉及技术是否在道德上中立的哲学领域的情况下(支持和反对这种说法的人都有很好的论据),从根本上说,技术是我们可以利用的工具。
一项技术的存在只是告诉我们什么_是_可能的(也就是说,我可以用它做什么),但没有什么可以告诉我们到底_应该_用它做什么。这就是大卫-休谟著名的 是-非声明.只有通过人类视角的玫瑰色眼镜才能得出任何规范性的价值,无论哲学家是否认为这是技术所固有的。核武器是否应该在战争中使用?是否应该实施广泛的监控以使公众更加安全?基因编辑是否应该被常规化地用于根除某些先天性疾病?科学无法告诉我们。
自然,有些技术的利用方式比其他技术更消极。例如,核武器比计算机有更多的负面联想(通过使用 "武器"这个词就很明显)。然而,支撑核武器的技术--核裂变--也为我们提供了一种产生基本无碳能源的新方法。我们必须认识到,好或坏的概念并不来自工具本身,而是如何挥舞它。人工智能也不例外。
在这篇文章中,我将向读者介绍新生的""研究领域。人工智能促进社会公益",也被称为"促进社会影响的人工智能",以及一些旨在解决当今一些最重要的社会、环境和公共卫生挑战的新颖应用。
为什么人工智能会被指责为不道德?
人工智能是计算机科学的一门分支学科。计算机科学家经常被批评为缺乏对其研究的潜在道德和社会影响的考虑。这种批评在最近几年里愈演愈烈,因为 深度学习革命 和 信息爆炸,这两份报告增加了计算技术对社会的影响和力量。
这种批评在很大程度上是有道理的。在第二次世界大战之后,《世界人权宣言》应运而生,其中概述了每个人都应该得到的基本自由,没有例外。1978年发布的《贝尔蒙报告》概述了对人类进行研究的个人必须遵循的伦理原则和准则,这对医学和社会科学的研究方法产生了深远影响。
附注。 贝尔蒙报告是怎么说的?_
它提出了三条支配未来人类研究的总体原则。
(1)
对人的尊重:要求在没有欺骗的情况下获得参与人的知情同意。
(2)
有利性:使研究对象的利益最大化,风险最小化。_ (_
3)
公正性:通过合理的合理化程序公平对待受试者。_
相比之下,计算机科学在很大程度上没有受到对其研究方法的限制的干扰。从历史上看,大多数计算机科学课程几乎没有强调伦理学的教学。这种不重视很可能不是故意的,而是因为计算机科学家生产的技术对普通公众的生活影响相对较小。
现在的情况不再是这样了。现在,计算机科学家与大型数据集打交道,例如:(1)医疗数据,创造出检测和诊断癌症等事物的算法,并对疾病的传播进行建模;(2)社交媒体数据,创造出改进的推荐系统和其他算法,通过加强消费者参与来增加收入;(3)金融数据,创造出决定哪些人将获得贷款,甚至人们应该投资于哪些公司的算法。这种创造对社会的影响已经明显增加,但仍然很少有正式的要求来执行这一领域的道德规范。
这种权力的迅速增加自然会导致矛盾的制约因素的加剧。法律立场是基于法律先例的,它着眼于过去的类似案件是如何被判断的,以及裁决可能如何适用于新的情况。就像任何新技术一样,目前很少有先例,这使得该领域在很大程度上没有得到监管。因此,技术上可行的东西不一定与被认为是合法的东西一致。而这些设想都不一定符合组织希望追求的目标,或者公众认为的 "道德"。此外,这些制约因素的目标柱一直在变化。我们能做的最好的事情就是改变这些门柱,让它们开始更紧密地重叠,而不是进一步分离。
与人工智能相关的重叠的约束。来源。IBM的《大数据和分析的伦理》报告
只有在最近几年,个人才开始大声疾呼,阐明不受约束的计算机科学研究可能带来的危险。因此,我们看到了对计算机科学道德实践的推动,重点是透明度和问责制。
哈佛大学等机构已经开始将伦理学纳入计算机科学课程,我们已经看到著名的研究期刊,如 自然和 科学等著名研究期刊要求数据集和分析必须公开,并说明数据的来源(例如,是否经过知情同意)。诸如 "神经信息处理系统会议" (NeurIPS)等会议也要求计算机科学论文提供更广泛的影响声明,说明其研究工作的任何伦理或社会影响。这种审查与政府倡议或大学中的机构审查委员会(IRB)和资助机构所做的审查类似。
显然,这些措施并不能解决更大的问题。目前,这些措施少之又少,可能是有选择的应用,或者只是作为批准的橡皮图章,但它们是以前没有的对话的开始。解决大规模数据集中的个人隐私问题,如重新识别的风险、信息披露、不利影响或公众对人工智能缺乏信任,将需要更广泛的措施。类似的措施已经在医学和社会科学领域实现,而没有严重阻碍研究目标,因此这不应该阻止计算机科学界的重大障碍。
什么是社会公益的人工智能?
**人工智能促进社会公益(AI4SG)**是一个相对较新的研究领域,主要是利用人工智能解决当今存在的重要的社会、环境和公共卫生挑战。最初,这可能听起来像一个噱头,试图颠覆传统上对人工智能的负面看法,但它不仅仅是这样。为了简单起见,我们可以将AI4SG视为人工智能与社会科学以及环境科学的交集。
AI4SG与人工智能的传统应用案例不同,它更多地是采用了 自上而下的方法.该领域的重点是根据《中国社会科学报》中列出的优先事项产生积极的社会影响。 联合国的17个可持续发展目标(SDGs)如下图所示。
联合国的17个可持续发展目标。来源。联合国
与文本翻译等传统的人工智能应用相比,我们可能反而更有兴趣对无家可归者的社会网络进行建模,以试图对抗艾滋病毒的传播,这些人受到的影响不成比例。
与有住房的同行相比,经历无家可归的个人受到艾滋病毒的影响不成比例。
虽然文本翻译可以产生积极的社会影响,但它一般不会被视为AI4SG的一部分。大多数商业智能应用也是如此,如库存计划、推荐系统等。
许多AI4SG的应用采用了以下方法 博弈论的:它们可以用代理人和对手之间的博弈来进行数学建模。基于博弈论的人工智能模型属于 强化学习范式,由于它们需要使用一个以上的代理,因此通常被描述为 多Agent系统.这本身就是一个完整的领域,很可能会成为社会以及工业4.0的游戏规则改变者。
作为一个例子,洛杉矶国际机场实施了一个博弈论的人工智能模型,以帮助创建巡逻队,以最佳方式抵御恐怖袭击和毒品走私者。这个系统研究了现有的巡逻策略,其中对手能够利用低效率。相比之下,该代理能够注意到这些低效率,并构建一个巡逻政策,通过基本上消除低效率,将对手利用低效率的可能性降到最低。这一结果是通过贝叶斯-斯塔克伯格博弈实现的,它提供了一个看似随机的政策,以最佳方式防御对手。
为了帮助更详细地阐明AI4SG所包含的内容,我们将看一下研究文献中的几个定义。
Floridi等人(2020)概述了对AI4SG应用至关重要的七个因素,如下所示。这些原则与贝尔蒙特和门罗报告中的原则相吻合,但密切关注人工智能和滥用或恶意使用该技术的可能性。
支持人工智能促进社会公益的七个因素以及相应的最佳实践的总结。来源。如何为社会公益设计人工智能。七个基本因素
Tomašev等人(2020年)为AI4SG提供了一套类似的准则,涉及到AI技术的整体使用(G1,G2,G3),应用(G4,G5,G6,G7,G8)和数据处理(G9,G10)。
一个具体的应用不一定能对所有17个可持续发展目标提供积极影响。事实上,一些技术可能对其中一个目标产生积极影响,而对另一个目标产生消极影响。为了应对这种情况,应用程序应旨在对尽可能多的SDG产生最大的净积极影响,而不对其他SDG造成可避免的伤害。
人工智能促进会 (AAAI)在2019年的年度会议上将AI4SG创建为一个新兴的主题,并在此后概述了AI4SG应用所需的几个标准。
- 问题的重大性。所考虑的社会影响问题是重大的,并且迄今为止没有被人工智能界充分解决。
- **方法的新颖性。**引入一个新的模型,或对现有的模型、数据收集技术、算法和/或数据分析技术进行大幅改进。
- 社会影响的范围和前景。解 决方案产生社会影响的可能性很大,可能在实践中使用或可以立即使用。
- 依靠和/或推进前沿的人工智能技术。引 入适合所解决的问题的新颖或最先进的人工智能技术。
下面概述了当今最常见的用于AI4SG的技术,其中一些技术以前已经讨论过。博弈论、网络理论、多臂强盗、马尔科夫决策过程、强化学习和以决策为中心的学习的使用,都是借鉴人工智能和多Agent系统领域的常见建模方法。
近年来在AI4SG论文中发现的常见主题。
尽管AI4SG刚刚起步,但它已经取得了一些令人印象深刻的成果,其中一些我们将在下一节讨论。
AI4SG的应用
在本节中,我们将讨论AI4SG的六个应用,以及这些应用如何影响联合国的可持续发展目标。这些应用包括:(1)从太空中数企鹅;(2)打击偷猎大象;(3)预防药物滥用;(4)用于预测大流行病的全球免疫学观测站;(5)用于监测心理健康的社交媒体分析;以及(6)谷歌的Euphonia项目。
(1) 从太空数企鹅
这也许是一个奇怪的例子,但它是一个非常有趣的应用,可以用于非侵入性的监测和保护目的,并扩展到其他动物物种,属于可持续发展目标的13-15。
研究员希瑟-林奇因其通过检查企鹅的 "鸟粪 "或排泄物从太空计数的工作而获得青年科学家奖。它们的粪便是浅粉色的,使其很容易被Landsat-7等卫星看到。虽然由于空间分辨率有限,从太空中发现单个企鹅的排泄物很有难度,但发现整个企鹅群的粪便足迹是有可能的。
在_""中概述的这一技术在极高空间分辨率的卫星图像中检测企鹅粪便的基于对象的图像分析方法"_中概述的这种技术是希瑟-林奇如何能够监测南极半岛上各种企鹅物种的位置和数量,以及它们的迁移模式。她的工作改善了对半岛上阿德利企鹅数量的估计,目前的最佳估计是379万对繁殖。

现存的阿德利企鹅群的地图,以及在图像中没有发现和被认为已经灭绝的企鹅群。来源。阿德利企鹅的第一次全球人口普查
林奇教授也对同样占据南极半岛的金丝猴进行了估计,他估计375个企鹅殖民地中存在着342万对繁殖对。
按南极海洋生物资源保护委员会分区域划分的所有现存的金丝带企鹅殖民地地图。来源。钦定企鹅的全球种群评估(Pygoscelis antarctica
这种技术和类似的技术可以用来监测特别容易受到气候变化影响的物种的人口变化和人口统计。由于覆盖在南极半岛上的雪和企鹅群的鸟粪之间的反差,这对企鹅来说相对简单,但类似的生物标志物可能使这在未来成为其他物种的可能性。
(2) W.W.F. 打击非洲的大象偷猎活动
打击偷猎的努力突出了被称为 "绿色安全游戏 "的博弈论模型的一个重要子集,它有助于解决SDG的1、11、15和16。
在乌干达,偷猎是一个特别棘手的问题。在20世纪70年代/80年代的政治动荡中,偷猎者将乌干达的大象数量从约30,000头减少到不足800头。诸如增加护林员巡逻和保护项目(如蜂巢围栏)的努力,使伊丽莎白女王国家公园的大象数量回升到3000头左右,但人象冲突仍然是该地区的一个问题。在卡塔拉,一些农民为了防止大象践踏他们的庄稼,不惜毒死大象,而其他大象则被偷猎者猎取象牙或肉类。相当多的护林员在与偷猎者的争吵中被杀,这导致该地区的丧偶妇女增多,使她们陷入贫困,无法养家。
护林员只有有限的资源可以用来监测公园里的大象,因此需要巧妙地组织这些资源,使他们有最好的机会打击该地区的偷猎行为,这就是我们的绿色安全游戏发挥作用的地方。
我们的绿色安全游戏是基于Stackelberg安全游戏,侧重于威胁预测,首先将伊丽莎白女王国家公园,一个2000平方公里的区域,分割成1公里x1公里的网格单元。
伊丽莎白女王国家公园(左上)被分割成1公里x1公里的网格单元,用于建模。
安全游戏将涉及根据从公园内大约1000个偷猎案件的12年以前的数据中了解到的各种因素,确定在某个网格单元中放置陷阱的概率。
然后由人工智能模型设计一个新的巡逻方案,以最大限度地提高这些网兜被捕获的可能性。这是反复进行的,过去的犯罪数据被用来预测未来放置网兜的大致空间位置。
资料来源。AI for Earth:用于保护野生动物、森林和鱼类的人工智能
当这种方法最初在公园的两个9平方公里的区域内实施一个月时,他们的网兜命中率比历史上以前所有月份的91%都要高。在此之后,在6个月的时间里,在公园内27个9平方公里的区域进行了更大规模的实地测试,并显示出显著的积极效果,捕获的网兜数量创下了纪录,甚至有一名偷猎者在公园内被当场抓获。
自这些实地实验以来,这些利用人工智能的绿色安全游戏已被扩大到默奇森瀑布国家公园,以及由野生动物保护协会在乌干达的其他地区,甚至由世界野生动物基金会在柬埔寨防止大象偷猎,近年来,大象作为某些中药材的成分已经变得很流行。当在柬埔寨的斯雷波克野生动物保护区进行测试时,在实施绿色安全游戏的第一个月就抓到了521个网兜,而该地区的护林员通常只发现101个网兜。
类似的绿色安全游戏可以扩展用于边境巡逻、预防恐怖主义、珊瑚礁保护,甚至预防亚马逊雨林的非法采金等任务。
(3) 药物滥用预防
应对联合国的可持续发展目标1和3,药物滥用预防一直是AI4SG研究人员的主要关注领域之一。药物滥用是一个重要的公共卫生问题,会产生广泛的负面社会影响,并会增加精神和身体问题的发生率。
青少年是药物滥用的高危群体,某些青少年群体的药物使用水平非常高,如无家可归的青少年。社会科学研究表明,偏差训练可能是有用的,但通常基于同伴的干预措施是最有效的。

有关预防无家可归人群的药物滥用的统计数字概述。资料来源。物质滥用预防AI
执行基于同伴的干预措施与为营销目的选择影响者的方式非常相似。在社会网络中选择一个节点的子集,这些节点具有向目标人群中尽可能多的受众传播信息的最高概率。这已经在无家可归的人群中进行了研究,并发现对打击各种偏差行为(包括药物滥用)是有效的。
想象一下,我们有一个如下图所示的社会网络 G,并且能够选择_K个_节点,这些节点将被培训为同伴领袖。一旦近似的社会网络,假设信息传播的独立级联模型,我们可以优化我们的算法,使受影响的节点的预期数量最大化。
显然,由于各种原因,包括退出过程的同伴领袖,以及传播概率和社会网络结构的不确定性,该程序在实践中更加混乱和不确定。
为了处理这种不确定性,Wilder等人(2017)开发了_Robust Influence Maximization_ ,它使用部分观察的马尔可夫决策过程来迭代选择社会网络中的最佳同伴领袖组,以达到最大的信息传播。

从本质上讲,如果一个同伴领袖 "不出现",那么这个同伴领袖就会被另一个最佳选择的同伴领袖取代,以提供对剩余网络的最大覆盖。
这种提供基于同伴的干预的技术可以应用于广泛的涉及通过社会网络传播的任务,因此,随着我们的生活越来越多地涉及越来越大的社会网络,这种技术可能会受到越来越多的关注。
(4) 大流行预测的全球免疫学观察站
在COVID-19大流行期间,哈佛大学公共卫生学院的迈克尔-米纳教授提出了一个激进的新想法,他称之为 "全球免疫学观测站",其作用类似于 "大流行病的天气预报"。
虽然这还没有实现,但其潜在的影响可能是深远的。通过观察整个人口样本的血清学指标,如血液中的抗体(即每次你去做常规血液测试),可以确定血清学指纹,然后将其添加到国家数据库中。然后可以对其进行分析,以测试当地人口中的任何异常情况。这可以用来在新的疫情扩散到其他地区之前发现异常的症状、感染和血液标志物,减少未来爆发或大流行的可能性。
鉴于自1900年以来,我们已经经历了三次大流行病,以及来自SARS、MERS、猪流感和禽流感等疾病的近十次大流行威胁,拥有一个大流行病的早期预警系统将有助于协助和简化公共卫生工作。
虽然这个想法仍处于萌芽阶段,但如果它在未来真的得到实施,样本的采集方式将必须在很大程度上代表当地人口,而且很可能是嘈杂和稀疏的性质。因此,必须开发智能和稳健的采样方案,几乎可以肯定的是,这些方案将利用机器学习技术。
(5) 心理健康的社会媒体分析
也许是迄今为止所有应用中最具体的,AI4SG正在开发新的方法,利用社交媒体监测心理健康。特别是,从社交媒体的帖子中预测抑郁症已经得到了很多人的关注。
每年有数以千万计的人患有抑郁症,但其中只有一小部分人接受治疗。Choudhury等人(2013年)使用了一年的Twitter使用数据,这些人在抑郁症发病前报告被诊断为临床抑郁症,以便开发一个能够估计个人抑郁症风险的统计分类器。这包括社会参与、语言、语言风格、自我网络和推文主题等方面的变化。他们发现,社交媒体为描述抑郁症的发病特征提供了有用的信号。
这样的工具将来可以被医疗机构用来介入并提供帮助,以积极主动地防止完全成熟的抑郁症的发生。研究人员建议,在不久的将来,其他心理障碍的发作或存在可以用类似的技术来标记,特别是在心理健康的重要性在公众中得到越来越多的认可的情况下。
同样地,产后情绪和行为的变化也用Twitter帖子进行了评估。Choudhury等人(2013年)发现,71%的时间他们能够根据母亲之前在社交媒体上的互动来预测她们的情绪和行为状态在孩子出生后会有怎样的改变。这样的信息可能有助于确定那些处于产后抑郁症高风险的母亲。
除了抑郁症,Thorstad和Wolff(2019年)分析了Reddit的信息,并能够从临床子网站上使用的词汇中区分不同形式的精神疾病,如多动症、双相情感障碍和抑郁症。有趣的是,作者分析了非临床子红包,如涉及烹饪和旅行的子红包,发现他们能够利用这些子红包上的帖子预测某人是否有可能向临床子红包发帖。
研究1中学习到的100个最能预测抑郁症的词。在用t-SNE降维后,单词根据其文档向量被投射到一个二维空间。颜色表示由DBSCAN分配的聚类。灰色的Y型标记表示DBSCAN没有分配到任何集群的 "噪音 "点。在每个聚类中,前三个预测性最强的词被标记出来。标记的大小也与预测等级成线性比例,较大的标记表示更多的预测性词语。
这些结果表明,我们的整体精神状态,以及任何精神疾病,都会影响我们在网上使用的词语,并有可能在不久的将来被AI4SG模型所破译。
(6) 谷歌Euphonia项目
谷歌的Project Euphonia也许应该是人工智能增强包容性的闪亮例子。该项目是一项持续的努力,包括获得大量关于畸形语言的原始数据。也就是说,来自有严重语言障碍的人的语音,使他们难以沟通,这可能源于肌萎缩性侧索硬化症(ALS)等疾病。
从这些数据中,谷歌已经创建了一种[机器学习算法](http://Personalizing ASR for Dysarthric and Accented Speech with Limited Data),能够将这种障碍性语音翻译成典型的语音,虽然仍处于早期阶段,但这项努力已经大大减少了许多这些人在日常生活中的交流障碍。在一个越来越以远程工作和在线会议为主导的世界里,在Zoom和Skype等平台上加入Project Euphonia等插件,可以从根本上提高对有严重语言障碍的人的包容性。
要了解更多关于Project Euphonia的信息,或者想看看它的运行情况,我在下面提供了一些链接。
其他项目
虽然还有大量的其他话题可以讨论,但我认为以上6个话题涵盖了令人兴奋的、非传统的人工智能应用,可以用来改善个人、社会和环境的福祉,与传统的人工智能叙述相反。我在下面留下了其他AI4SG应用的链接,供感兴趣的读者参考。
- 结合卫星图像和机器学习来预测贫穷
- 利用眼底图像的深度学习预测糖尿病视网膜病变(约4.15亿例)(也可以预测性别、年龄、血压等)。
- 关于识别灾难性Twitter数据中的Hashtags
- 通过强化学习检测假新闻的弱监督性
- 保护照片集的地理位置隐私
- 在天气雷达数据中检测和跟踪公共鸟类的栖息地
- 斯坦福视力测试。使用贝叶斯技术的精确视觉测试和人类视觉反应的发现
- 互联网审查的语言学指纹。新浪微博的案例
潜在的问题
与任何学科一样,尤其是那些标榜改善社会的学科,在其应用中可能会出现意想不到的后果。这也是为什么有人提出了更广泛的影响声明的概念,例如,发明者会清楚地说明一项具体技术的利弊。然而,AI4SG仍有可能在改善社会影响的幌子下被使用,而对其他社区产生负面影响。幸运的是,SDG的目标之一是减少不平等,这使得不良行为者更难从道德角度来证明这种做法的合理性。
为了做到完全透明,我还附上了一些文章的链接,这些文章阐述了这个领域的其他观点,概述了AI4SG实际上可能对社会造成的损害。如果时间允许,我鼓励读者阅读这些文章,并对AI4SG和它的未来使用方式做出自己的判断。这仍然是一个相对较新的领域,所以现在是成为对话的一部分的好时机。
最后的话
数据差距破坏了我们瞄准资源、制定政策和跟踪问责的能力。没有好的数据,我们就会盲目飞行。如果你看不到它,你就无法解决它。- 科菲-安南,前联合国秘书长
AI4SG在某种程度上与计算机科学领域背道而驰,更接近于一门工程学科,而不是计算学科。这是一个我们越来越多地开始看到的趋势,如微小的机器学习领域。在某些方面,人工智能似乎是一个原工程学科,类似于化学和电磁学,它们逐渐演变成化学和电气工程。新的子领域可能会继续从诸如Neuralink这样的应用,以及像优化民主这样的研究工作中出现。
这是一个令人兴奋的(也是令人担忧的)时代,现在是我们开始拥抱和利用人工智能的力量来改善每个人的生活的时候了。然而,我们应该谨慎地这样做,放置类似于在医学和社会科学中遇到的限制,以帮助规范和提供对计算机科学领域及其萌芽的后代的责任。
鉴于大多数人工智能人才都被隔离在工业界或学术界,鼓励研究人员将一定比例的时间捐赠给AI4SG倡议可能是富有成效的,就像法律界的_无偿_工作一样。现实世界挑战的复杂性事实上可以帮助促进对现有方法的理解,并在最重要的地方展示影响。