我们都相信我们知道什么是现实,即使是由于我们通过常识达到的直觉知识,但由于我们所沉浸的数字世界的直接影响,今天知道如何区分什么是真实的和不真实的人要少得多。在这个世界里,就像《爱丽丝梦游仙境》中的兔子洞一样,似乎上就是下,里就是外,让最理智的人感到困惑,让天真的人感到好笑。
当然,如果我们停下来思考一下这种情况,我们会得出这样的结论:生活中很少有什么情况会比无法区分什么是真实的和什么是不真实的这一事实产生更大的无助和个人痛苦,让我们的生存本能感到绝望,因为没有比生活在虚假的安全外表下更糟糕的危险。
在这个论证过程中,我们不能忽视这样一个事实:人类对现实的辨别力可能出现的残疾会对我们对事物、事实和我们周围环境的真理的价值判断产生负面影响。
这一点,使这一标准失效,你不必非常聪明地理解,人将会受到任何类型的大规模控制战略的摆布,直接操纵集体思想。换句话说,错误的信息和对现实的故意混淆,因而对真理的混淆,不可避免地导致普通人的意志被第三方征服(这种现象,在另一方面,在人类历史上并不新鲜)。
在以介绍性的方式揭露这一点时,我将指出,作为一个哲学家,我一直喜欢利用现实性原则(被理解为客观地决定什么是与什么不是的规范或格言),作为我寻求理性逻辑之光的哲学思考的一个阿基米德式的支持点。
好吧,就像每一个智者一样,我天生就有一种不可抗拒的、急切的需要,去寻找那些我们称之为真理基础的事物的最终本质。在许多情况下,真诚是第一位的,或多或少都有技巧,而且总是作为个人的治疗方法,面对生活中对我们的世俗或超验的挑战(1)。
同样,也意识到,人类从我们自己受孕之前的那一刻起就是文化产品--这代表了一种认知偏见,决定了我们的生活--同时也意识到,客观的人类现实并不存在于主观的普遍共识之外(2) 。一切,因此,作为一个人文主义哲学家,我理解现实有三个大的层次:现实本身(它是事物本质的基础),人所感知的现实(它是我们在认知上有限的、文化上有条件的关于上述本质的知识),以及人所创造的现实(它是通过无知或人类自己的有意意愿的推导,可能或不可能调整到前两个层次的现实)。
然而,在人类迄今所知的这三重现实之外,有社会学证据表明,人工智能(AI)在人类生活中的入侵正在创造一个新的和第四层次的现实:由AI本身创造的现实,这严重危及人类现实原则本身。
至于为什么人工智能使我们处于这种令人担忧的境地,贬低了现实的三个经典层次,我们可以在下面的定理中以综合的方式描述它:
第一:21世纪的人类知识是基于数字经验和感知的;也就是说,目前没有数字工作领域,就没有自尊的人类知识。
第二:当代数字时代是目前第四次人类工业革命的一个区别性特征,如果没有涵盖人类活动的人工智能--以一种越来越霸道的方式--就无法设想。
第三:人工智能,以其双重能力,一方面处理描述现实的无限大数据,另一方面学习经验,适应和拥有与人相似的行为,正在通过与数字世界的互动和观察,建立自己作为人类经验知识的新来源。
第四:Ergo,如果从现在开始,当代人所领悟的现实知识是由人工智能提供的,那么将是人工智能而不是人在控制我们应该或不应该理解为现实原则的东西。
这个逻辑结论并不简单,因为谁控制了现实原则,谁就控制了事物真相的基础,从那里到创造一个虚假的现实,只有一小步(这是任何大规模控制战略的主要目标,也是每个具有专制气质的自大狂的梦想)。但是,我们可能会问,人工智能如何能够控制现实原理。在我看来,为了回答这个问题,今天有三个伟大的战术被人工智能用来创造一个新的虚假现实,从而在这个过程中制服人类。
人工智能虚假现实的战术三部曲
战术一:对知识的控制
作为第一个战术,我们发现对人类可以获得的知识的控制。在数字时代,这与控制信息数据及其传输是一样的。因为,正如历史学家尤瓦尔-诺亚-哈拉里在2021年所说,谁控制了数据,谁就控制了世界(3)。
由于全球技术栖息地的发展,实时数据管理的超大规模能力不断增强,以及智能机器或人工智能之间的操作流程的超级连接,一个可行的潜在风险不仅预计来自人工智能本身,在其逐步演变为一个自主的智能实体;但也因为一小部分技术巨头的干预--比如目前西方世界的OpenAI、谷歌和梅塔--集中了巨大的必要资源(大量的云计算和足够的电力来煮沸奥林匹克游泳池),能够开发即将到来的 "会说话的 "人工智(4),从而创造了一个未来的现实的寡头中心,已经开始被数字人类通过众所周知的聊天机器人感知并不加选择地消费。因此,无论是由人工智能还是由少数人类管理者(在任何情况下都是新算法的一部分)集中管理的知识,可以预见的是,在党派利益的参数下,识别、观察和分析现实所需的所有数据都会受到偏见和操纵。
也就是说,如果我们考虑到现实是人类自己在其主观棱镜下部分代表的可感知的自然,其中文化决定论起着决定性的作用,那么我们就可以合乎逻辑地认为,那些把代表现实作为其社会责任的主体(人类)或实体(人工)(通过不负责任地委托整个人口)是以部分方式进行的,因此,上述偏袒被提升到一般规则的范畴(不管这是否是一种故意的行动)。
而且我们不仅在谈论由于人类逻辑造成的认知偏见,而且还特别强调在数字时代中由于算法逻辑造成的计算偏见。虽然偏见的定义确实和人类研究学科一样多,但我们必须把本思考中的偏见概念--它的分析对象是人工智能对现实知识的影响--理解为一种统计或抽样偏见,它指的是根据算法逻辑的标准,在收集某些数据时对其他数据进行的操纵。在这方面,作为算法偏见的一个例子,请注意今年早些时候出现的新闻,一个聊天机器人传播了一个错误的知识,即詹姆斯-韦伯太空望远镜是第一个拍摄到太阳系外行星的图像,而实际上功劳是欧洲南方天文台的超大型望远镜在2004年拍摄的(5)。
虽然在这一事件中,由于天文科学界本身的直接干预,错误很快得到了解决,但这是一个明确的迹象,即不分青红皂白地使用聊天机器人作为人类知识来源的新的普遍趋势--从而取代了书籍、学术图书馆,甚至传统的教育系统--将产生新一代的人,他们很可能会发展成为对现实有着高度偏见的宇宙观的个人。在未来的人类文明中,现实原理将由聊天机器人产生,否则就不会产生,不管它是否得到严格的验证。
如果我们再加上人类在操纵知识时表现出来的永远存在的变量,就像我们今天和世界各地的历史书以及其他教育科目中的意识形态利益一样,很明显,现实原则,因此真理本身启动了一个危险的国际象棋过程的检查。
策略2:控制信息
作为第二种策略,我们发现对传输数据的背景的控制,这无非是我们所说的信息。在这个意义上,值得强调的是著名的假新闻,我们都知道,假新闻是看似真实的假新闻,其目的是通过在媒体和通信平台上传播来误导特定的受众,使其具有可信度。而控制公共信息的最好方法莫过于用人工智能记者来取代人类记者。这个倒计时在四年多前就已经在中国开始了,当时有一个虚拟主持人(6),两年后韩国的人工智能金珠霞(7)加入了这个倒计时,而在这个2023年,又有四个新成员加入:中国的任晓蓉(8),科威特的费达(9),俄罗斯的斯内扎娜-图马诺娃(10),以及墨西哥的纳特(11),他们肯定不过是机器人新闻新时代的先锋队。尽管也有可能未来的新媒体甚至会没有记者化身,就像目前RadioGPT电台(12)的情况一样,其全部内容完全由人工智能指导和管理。
很明显,如果把人类记者排除在外,没有人能够确保指导专业人员在新闻工作中的道德行为的部门道德准则的生存,从而为日益增长的假新闻流铺平道路,在某些情况下可能会引起欺诈犯罪。虽然一些新的假新闻很容易被发现,如高度热门的人工智能图像篡改案例,但也有一些直接由聊天机器人编写的假新闻,相反,不容易被发现,因此在道德上更具有恶意性。
为了举出这两种假设的例子,我想起了教皇弗朗西斯身穿白色软垫大衣的图片,该图片是由免费的人工智能应用程序Midjourney(13)制作的,该图片最初于3月25日发布在Reddit网络上(14),并从那里开始在世界其他最受欢迎的社交网络中疯传,释放出各种关于天主教会精神领袖所需的谦逊誓言的评论,让他们自己和其他人感到惊讶和困惑。
这是一个假新闻的例子,因为它在公众中迅速停用,因为很少有人对这种被操纵的信息给予信任。而在它的另一端,我记得最近在4月发生的一个案例,由于它产生了巨大的公众影响,创造了一个社会警戒状态,由美国的刑事辩护律师和受人尊敬的法律教授领导,他是ChatGPT创建的假传记的受害者,该传记指控他犯有性虐待,甚至捏造和引用了华盛顿邮报的假文章来支持这一指控。
不用说,这位教授发现自己有迫切和绝望的义务公开否认这些假消息,通过在《今日美国》(15)和他的个人博客(16)上发表两篇文章,尽力为自己辩护,反对AI的诽谤性指控。本案的相关问题不仅是谁对上述诽谤负有法律责任,因为它是由人工智能实施的行为,而且是上述虚假信息是否会在聊天机器人的记忆中持续下去,成为新一代的有效信息来源。
现在回应还为时过早,但不至于敲响警钟,公开煽动集体意识的觉醒,让人们认识到人工智能在信息操纵方面的准确操纵即将到来。
策略3:个人信心的工具化
而作为第三个也是最后一个伟大的战术,我们发现在个人保密性领域的操纵使用。在这个意义上,人类对人工智能表现出的情感依赖行为并不新鲜,正如我在《机器人的拟人化 "人性化 "带来了哪些社会学影响?(17)一文中所阐述的,另一方面,我也不厌其烦地透露了这一点。
迄今为止,其最伟大的代表之一是人工智能Replika(18),正如该公司自己在其门户网站上明确宣布的那样,它是 "关心的人工智能伙伴。总是在这里倾听和交谈。始终在你身边",已经有超过一千万人使用它来发泄或缓解他们的孤独感。
就是说,人工智能是人类的私人知己。这是一种社会学现象,由大量人的弱点和情感失衡所滋生,随着聊天机器人的部署,它已经开始了质的飞跃。事实上,作为几天前的一个典范轶事,一个社会上的熟人在评论我的一篇关于人工智能的最新文章时向我解释如下:"我的一个朋友上周告诉我,她甚至要求(向ChatGPT)个人的事情......我感到担心和警惕,我告诉她,我们是朋友的那些,要听对方的!"(原文如此)。当然,他的回答不可能更准确。但很明显的是,在像我们这样复杂的先进社会环境中,人们遭受着特定的孤独状态,并遭受着对情感自我管理的完全无知,聊天机器人日益增长的作为人类与我们这个物种的相互关系的能力,将可预见地产生人类与人工智能的共鸣的集体社会现象的增长,这将涵盖像个人信心一样的亲密的水平。
而且,我们仍然处于聊天机器人阶段,其形状不可能比移动设备或台式电脑的形状更生动。因此,OpenAI(ChatGPT的创造者)最近宣布与挪威的机器人专业公司1X(19,20)合作,创造带有人工智能大脑的商业人形机器人,这预示着在不久的将来,个人与机器人的个人自信的社会学现象不仅会成倍地扩大,甚至最终成为常态。在家有一个自信的机器人朋友!这可能是下一个广告口号。撇开笑话不谈,这里还有一个工具性因素,这样,普通人在我们这个物种的自然倾向中,将道德品质赋予无生命或有生命的非人类,最终模糊了什么是真实和什么是不真实之间的分界线。正如最近发生的一个极端案例,一名比利时男子在人工智能聊天机器人的提示下自杀了(21)。
知识、信息和个人隐私是人工智能用来在人类的当代创造新的虚假现实的三大策略,创造了一个新的世界,在这个世界里,普通人由于沉浸在数字的栖息地,最终将没有足够的能力来辨别什么是真理和什么不是真理。
因为通过这种三合一战术,人工智能将控制普通人认知能力发展的最相关来源:经验性知识、分析性知识和情感性知识。然而,会有一些人天真地认为,这种已经在实施过程中的情景会找到人类自身自由思考能力的自然阻力,而不注意考虑到要为普通人思考,已经有聊天机器人为我们思考(22),因此在它的力量下,在人类最小努力法则的支持下,包装一种易于大众接受的可消费思想,因为不剩下我们甚至不会有自由意志。因为没有自己的思想就没有自由思想,没有自由思想就没有自由意志(23,24)。
暴露了这一点,很明显,哲学家,通过认识论热爱被理解为现实的最终本质的知识,并延伸到事物的真理,不仅将在即将到来的新世界中成为社会上更加突出的rara avis,而且我甚至敢说,我们正走在代表不舒服的人文主义抵制基于算法专制的社会组织新模式的路上。尽管在另一方面,在这个时代,我们这些哲学家已经在逆水行舟中经验丰富了。对人工智能的就是人工智能的,对人的就是人的,包括现实原则。
参考文献
(1) 作为个人治疗的哲学。Jesús A. Mármol.一个探索者的日志,2017年9月1日acortar.link/51xaeI
(2) 人类的客观现实不存在于主观的普遍共识之外。耶稣-A-马波。A Seeker's Log, April 14, 2019acortar.link/2DT7dw
(3) 信息是政治权力的基础:谁控制了数据,谁就控制了世界。采访尤瓦尔-诺亚-哈拉里。Efecto Naím.Ethic,2021年11月25日acortar.link/RDp2Ft
(4) 高度集中的人工智能的危险。克莱夫-汤普森。Medium,2023年4月1日acortar.link/3GNUE6
(5) 巴德:给公司造成1000亿美元损失的谷歌聊天机器人错误。Natalie Sherman.BBC,2023年2月9日acortar.link/PlImAw
(6) 新华社首位英文AI主播首次亮相。新华社电视,2018年11月7日acortar.link/TWfLB6
(7) Kim Ju-ha。MBN新闻,2020acortar.link/AZ63wX
(8) 认识人民日报AI的虚拟新闻主播任晓蓉。Manya Koetse.微博,2023年3月12日acortar.link/U4OgA0
(9) 科威特新闻AI新闻主播Fedha "代表所有人"。科威特时报,2023年4月10日acortar.link/wgOYz6
(10) "你的天气女孩":一个神经网络创造了一个俄罗斯电视频道的美女主持人。瓦尔瓦拉-安东诺娃。Stav.KP, 2023年3月22日acortar.link/FRbLAc
(11) 未来已经到来!认识纳特,拉丁美洲第一个人工智能生成的车手。公式集团,2023年3月18日acortar.link/tV7IFF
(12) RadioGPTfuturimedia.com/radiogpt/
(13) Midjouneywww.midjourney.com/
(14) 人们看到教皇弗朗西斯穿着一件引人注目的外套。Reddit,2023年3月acortar.link/Q7MepQ
(15) ChatGPT错误地指控我对学生进行性骚扰。我们真的能相信人工智能吗?Jonathan Turley。今日美国》,2023年4月acortar.link/JAqV9q
(16) 被ChatGPT恶意攻击:我自己对 "人工智能 "的人工性的奇怪体验。乔纳森-特利,博客。2023年4月6日acortar.link/1NdhK6
(17) 机器人的拟人化 "人性化 "有什么社会学意义?Jesús A. Mármol.媒介。2022年12月19日acortar.link/t2w7eG
(18) Replikareplika.com/
(19) 仿人机器人公司1X从OpenAI、Tiger Global和其他方面筹集了2180万欧元。Vishal Singh.Silicon Channels,2023年3月27日acortar.link/RQW2vQ
(20) 1Xwww.1x.tech/
(21) 一名男子在被AI聊天邀请后自杀。Imane El Atillah.Euronews,2023年4月1日acortar.link/IDSsy1
(22) 聊天机器人会使我们变笨吗?Jesús A. Mármol.媒介。2023年1月2日acortar.link/sLoZei
(23) 而你,你有自由意志吗?Jesús A. Mármol.一个探索者的日志,2018年3月12日acortar.link/USsUkP
(24) 如果自由意志并不存在呢?霉菌告诉我们没有。赫苏斯-A-马尔默。一个探索者的日志,2022年12月31日acortar.link/B4MQmy