随着人工智能和神经技术的飞速发展,科学家警告,我们对意识本身的理解已严重滞后,这带来了巨大的伦理风险。
在一篇发表于《科学前沿》的最新综述中,研究人员指出,人工智能和神经技术的进步速度已远超科学界对意识的理解。他们认为,这种差距若得不到解决,可能引发严重的伦理问题。
作者指出,阐释意识如何产生已成为一项紧迫的科学与道德优先事项。更清晰的理解最终可能促使我们开发出检测意识的科学方法。这一突破将对人工智能发展、产前政策、动物福利、医学、精神卫生保健、法律以及脑机接口等新兴技术产生深远影响。
“意识科学不再是一个纯粹的哲学探索。它对社会各个层面——以及理解作为人类的意义——都有着切实的影响,” 通讯作者、布鲁塞尔自由大学的阿克塞尔·克莱雷曼斯教授表示。“理解意识是21世纪科学最重大的挑战之一——由于人工智能和其他技术的进步,这一任务已变得十分紧迫。”
“如果我们能够创造意识——即使是偶然的——那将引发巨大的伦理挑战,甚至带来生存风险,” 克莱雷曼斯补充道。
定义感知能力的挑战
意识通常被描述为对周围世界及自身的觉知,它仍是科学界最棘手的谜题之一。尽管经过数十年的研究,科学家们仍未就主观体验如何从生物过程中产生达成共识。
研究人员已识别出与意识体验相关的大脑区域和神经活动,但仍存在重大分歧。科学家们仍在争论哪些大脑系统对意识真正必不可少,以及它们如何相互作用以产生觉知。一些研究者甚至质疑这种研究路径是否抓住了问题的本质。
这篇新综述审视了意识科学的现状、该领域的未来发展方向,以及如果人类成功完全解释甚至创造意识可能带来的后果。这包括意识可能在机器或实验室培养的类脑系统(即“脑类器官”)中出现的可能性。
检测意识
作者认为,开发基于证据的意识检测方法,可以改变我们在多种情境下识别觉知的方式。此类工具可以帮助检测脑损伤或痴呆症患者的意识,并确定意识何时在胎儿、动物、脑类器官甚至人工智能系统中出现。
虽然这将代表一项重大的科学进步,但研究者也警告,这将引发棘手的伦理和法律问题。确定一个系统具有意识,将迫使社会重新考虑应如何对待该系统。
“意识科学的进步将重塑我们看待自身的方式,以及我们与人工智能和自然世界的关系,” 共同作者、萨塞克斯大学的阿尼尔·塞思教授表示。“意识问题由来已久——但从未像现在这样紧迫。”
医学、伦理与法律影响
对意识的更深入理解可能对社会产生广泛影响。
在医学领域,它可以改善对无反应、被假定为无意识的患者的护理。受整合信息论和全局工作空间理论启发的测量方法,已在一部分被诊断为无反应觉醒综合征的个体中检测到意识迹象。进一步的进展可以完善这些工具,以更好地评估昏迷、晚期痴呆和麻醉状态下的意识,并影响治疗决策和临终关怀。
精神健康治疗也可能受益。理解主观体验的生物学基础,有助于研究人员通过缩小动物研究与人类情感体验之间的差距,为抑郁症、焦虑症和精神分裂症等疾病开发更好的疗法。
对意识的更深刻洞察可能重塑人类如何看待自己对动物的道德责任。识别哪些动物和系统具有感知能力,可能会影响动物研究实践、养殖业、食品消费和保护策略。“了解特定动物意识的本质,将改变我们对待它们的方式,以及对待科学家正在合成生成的新兴生物系统的方式,” 共同作者、特拉维夫大学的利阿德·穆德里克教授表示。
重新思考责任与技术
意识研究也可能影响法律系统对责任的理解。新的发现可能挑战传统的法律概念,如“犯罪意图”(确立意图所需的主观恶意)。随着神经科学揭示出有多少行为源于无意识过程,法院可能需要重新考虑责任的界限。
与此同时,人工智能、脑类器官和脑机接口的进步,提出了超越自然生物极限来创造或改变意识的可能性。虽然一些研究者认为意识可能仅通过计算产生,但另一些人则认为生物因素起着至关重要的作用。“即使使用标准数字计算机无法实现‘有意识的人工智能’,那些给人以有意识印象的人工智能也会带来许多社会性和伦理性的挑战,” 塞思说。
呼吁开展协同研究
作者强调需要一种协调的、基于证据的方法来研究意识。一项被提出的策略涉及“对抗性合作”,即支持竞争性理论的研究者共同设计实验,让理论相互进行验证。“我们需要更多的团队科学来打破理论孤岛,克服现有的偏见和假设,” 穆德里克说。“这一步有可能推动该领域向前发展。”
研究人员还认为,科学工作应更加重视现象学(意识的感觉如何),同时兼顾功能研究(意识做了什么)。
“合作努力对于取得进展——并确保社会为理解、甚至可能创造意识所带来的伦理、医学和技术后果做好准备——至关重要,” 克莱雷曼斯说。