Sparrow and the Turing Triage Test: Exploring the Clash of Moral Perspectives in Artificial Intelligence and Its Implications
The latest GPT series products make people more hopeful about general AI whose cognitive ability far exceeds that of humans. At the same time, some ethicists argue that AI should be given moral status, holding them responsible for their actions. Sparrow opposed Putnam’s view of computational functionalism through his thought experiment of constructing the Turing triage test, as well as the construction of a moral machine. He argues that AI lacks an “inner life” in an ontological sense, has no “potential for punishment,” and thus has no moral standing. However, in Sparrow’s thought experiment, there is no strict distinction between “moral agent” and “moral patient”, so that in Sparrow’s argument, the definition of AI’s moral status is vague. Still, Sparrow’s thought experiment is instructive.
The Turing Triage Test
在AI技术大发展的今天,如一些艺术作品所呈现的那样,我们似乎可以预见一个被强AI包围的世界。AI将会有自己的信念、欲望、情感。通过遗传算法、遗传编程或其他进化计算方法,它们或将成为完全成熟的具有自我意识的AI。在关于道德地位的大多数哲学理论中,拥有自我意识是道德地位的首要条件,另外,由于AI在诸如计算功能上显而易见的优势,根据功能主义的一些观点,AI甚至拥有比人类更强的道德能力从而获得更高的道德地位。
斯派洛反对功能主义的观点,他试图通过构建一个被称作“图灵分类测试(The Turing Triage Test)”的思想实验来论证他的观点。
设想在一个功能齐全、经费充足的医院中,医疗专家借助一台医疗辅助AI在医院的ICU病房中进行日常的救助病患的工作。可设想的是,该AI具有学习、独立推理和自主决策的能力,能和医生讨论病人的情况。同时,该AI通过了图灵测试,医生们并不觉得它与自己的人类同事有什么区别,或者说,它本身就是位接通了电源的同事。平时,在这位同事的帮助下,医生的工作效果得到前所未有的提高。
现在设想如下两个情境:
情境一:很不巧的是,有一天医院遭遇了灾难性的停电事故,此时ICU病房中有两名病人正在进行器官移植手术,作为医疗主管,你被告知现在可供医院使用的电力只可提供给ICU中的一台设备以完成手术,你必须尽快选择向哪名病人提供生命支持,而另一名病人将不幸死亡。如果不尽快做出选择,两名病人可能都将死亡。这时,辅助AI凭借自身的应急电池依然可以正常运作,它会给你分析现在两位病人的处境,并给出在此情境下两人手术成功并成功康复的概率。你可能选择康复概率更高的病患,也可能将选择交给丢硬币的结果,但无论如何,你必须选择,且要承受做出“残忍”选择后的心理负担。
情境二:在你做出第一个选择后,你又被告知,为辅助AI供电的应急电源也出现了故障,为了维持正常运转,AI不得不占用ICU病房所使用的电力。也就是说,为了维持AI的运转,你选择拯救的病人也将死亡,或者选择继续拯救那名幸运儿,而切断AI电路,即使你被告知,这样做会使AI受到不可逆的损坏而永远运转不了,也就是“死亡”。这时AI请求你考虑它的利益,让它继续存在。同样,你必须尽快做出选择。
很显然,这个思想实验借鉴了图灵测试,尽管仅仅是思想实验,难以甚至无法复现,但是仍然具有强烈思辨的意义,也有利于我们去判断可能的强AI在人类社会的定位。
斯派洛认为没有任何强AI能通过自己设置的测试。出于某种道德直觉,我们不可能将两种情境同等看待。在面对拯救“生命”的选择时,在明确知道一台是机器,而另一个是人类的条件时,直觉上我们会毫不犹豫的拯救人类而放弃机器。在这里,人类的身份就是行动者选择对其进行道德行为的充要条件。理解为主观贝叶斯的形式,我们可以将情境一理解为情境二的先验概率形式,即现实情况是二者之间有一名人类和一台机器,但实际上,我并不知道,我认为我必须在两名人类之间做出选择,所以我陷入道德困境,我对拯救二者的先验概率是接近的。但是,当我明确知道而二者的身份,在“机器人”身份这个证据的调整下,拯救它的后验概率就急速下降。斯派洛的工作就是为这个直觉辩护。
一些哲学家认为,我们应该将道德关怀的起源(origin of moral concern)和人格(personhood)从人的概念中分离开来。让人具有道德意义的东西其他实体(比如动物)一样可以拥有,人格不仅仅属于人类。大多数人会同意这样的看法,体验快乐和痛苦的能力是道德起源的基本条件。人们意识到自己是跨越时间的存在,有理性和推理能力,自然会在行事之前,选择趋向快乐而避免痛苦的行为。在这样的认知基础上,逐渐形成自我的概念,养成总体上利己的行为方式,并且在一定的社会或者群体中达成某种可以有利于多数人的行为共识,从而最终形成道德。于是,可以认为某种认知功能成为了道德能力的首要因素。
关于这点,斯派洛举例说,我们有时可能会有义务拯救一只成年黑猩猩的生命,而不是一个大脑受损的人类婴儿的生命,因为前者被认为有更高认知能力
如果普特南是正确的,那么诸如“感到痛苦”就是多重可实现的,那么在折磨机器时,机器也会感到痛苦,故折磨机器是不道德,所以赋予机器道德地位的做法看起来也没有不妥。但是这正是斯派洛极力反对的。他的理由是我们无法确认机器拥有人类所具有的内在生命(inner life)。
直觉会让一些人觉得虽然我可以通过命令给我假设的人工智能提供自我意识,但还远不清楚这些实体能否被恰当地说成是痛苦的。体验快乐和痛苦的能力似乎只存在于那些神经系统与人类十分相似的生物身上。机器疼痛只能是一种比喻,一种粗略的类比,只能用来解释行为(比如,机器人从燃烧着它的火焰中撤退)。除非能说机器会受苦,否则它们根本不可能成为道德关怀的合适对象。斯派洛就是这种观点的支持者
斯派洛让我们考虑这样一个例子,我们的面前有一台闪烁着大量二极管的机器。这台机器有足够数量的二极管,并能展示足够复杂的变换,从而展示与疼痛反应或其他认知状态“功能同构”的行为。设计这台机器的工程师向我们解释说,灯光闪烁的这种图案就意味着机器正在遭受一个小的痛苦,而另一种图案意味着另一个比较大的痛苦,然后,这个图案是快乐的,那个图案是悲伤的,等等。根据这些信息,我们调整与机器相关的行为,以使其“痛苦”最小化。现在想象一下,那位工程师慌慌张张地回到我们身边。实际上,他对机器反馈的图案的解读完全是错误的,他使用了一本错误的操作手册而误导了我们。事实上,正是这个图案在机器痛苦时闪烁,这些图案在机器快乐的时候闪烁,等等。我们应该完全不同地对待机器。在这一点上,彻底怀疑的可能性出现了。我们怎么知道工程师这次做对了呢?我们怎么知道机器不是通过显示一系列相反的图案来糊弄我们呢?我们如何知道机器的真实感受?我们一旦产生这种根本性的怀疑,就没有办法解决问题。任何对机器的行为或结构的分析都无法证明它真的能感受到它所表现出来的东西,甚至无法证明它能感觉到任何东西。在机器的行为和对其内在生命的任何判断之间,根本没有办法建立起一座桥梁。“正是这种不可逾越的鸿沟打开了现实和表象之间的联系,与机器的思想和感觉有关,这解释了为什么我们不可能认真对待机器可能有内在的想法。”
内在生命指的是心理倾向在心智中的表现,与之相对,存在一个外部表现的概念,指的是其在行为上的表现。对于机器来说,心理倾向的内部表现和外部表现之间总存在着一道鸿沟
斯派洛认为,人类始终对机器是否拥有“心灵(可以简单理解为自我意识)”存在根本性怀疑,这种怀疑如同普特南自己提出的那个经典的“缸中之脑
但是,斯派洛又面临另一个麻烦,即解释为何面对机器的“心灵”,人类会陷入彻底的怀疑,但面对同类的存在,我们会破除怀疑,而确认他心的存在呢?斯派洛认为这是人类凭借一种一种对待灵魂的态度(An Attitude Towards A Soul)。对这种态度的描述可以追溯到维特根斯坦,由彼得·温奇解释所谓指向灵魂的态度是一种原始的反应,一种前认知意识,它是一种条件,而不是我们相信周围的人有思想和感觉的结果
斯派洛认为自己完成了对功能主义AI的反击,但是功能主义依然是主流,在瓦拉赫和艾伦出版了《道德机器》后,在2011年的论文里,斯派洛将矛头直接对准了瓦拉赫和艾伦试图构建的按照伦理规范行事的人工道德行动体(Artificial Moral Agents)的构想。
瓦拉赫和艾伦构想了一套最有可能让AI践行道德的方式,即自上而下和自下而上的混合式进路。简单来说,就是将AI置于一个道德智能体社会中让AI学习这个社会中被认为是道德的行为,同时也在一定程度上给AI一定的规训,在机器人学习的案例中添加最差的道德示例。他们认为最困难的地方在于如何在实现混合式道德机器人的过程中,弥合不同的哲学范式和相异的结构体系
他将惩罚的可能性将道德行为与人格联系起来。如果让一台机器对其行为承担道德责任是合理的,就必须存在针对机器犯错的惩罚措施,反过来说,我们需要公正的惩罚机器。最极端的不公正就是判处一个无辜的机器“死刑”,如果它不具有道德地位,那么这种惩罚就不是“不公正的”
斯派洛掉入了类似“缸中之脑”的唯我论陷阱,即从我的认知状态推知事实。这实际上并没有做到完全批判功能主义的做法,至少在斯派洛这里,思想实验已经代替了经验实验。
回到斯派洛的思想实验。根据格雷的道德定型(Moral Typecasting)理论,当伤害性事件发生时,人们会在事件中习惯性地区分作为具有能动性的、可被谴责、负有责任和义务的道德能动体和具备受伤体验、值得被同情的道德承受体
所以,需要明确的是,斯派洛的思想实验里实际展示了一种人工智能的道德地位和病人相同情况,它并不是处于一个能够对它物施以道德关怀的地位上,而是处于需要被给与道德关怀的地位。也就是说,在斯派洛的讨论中没有严格区分能承担道德责任的行动体和需要被给与道德关怀的承受体。在这个意义上,斯派洛对于AI的道德地位界定的过高。
同时,他混淆了演绎和溯因推理。自休谟以来,原因的相关项是事件,但因果解释的相关项是事实
斯派洛的初衷是劝说哲学家以及AI工程师以更谨慎的态度面对人工智能的道德地位问题,但是实际上,他自己却走向完全的不可知论和唯我论,完全否定了道德机器的可能性。
那么,强AI究竟能不能成为道德行动体。斯派洛论证这个问题为否定的关键在于,内在生命作为道德的必要前提,也就是不能让没有内在生命的AI为行为负责。实际上,这是具有启发意义的,这意味着,对于强AI的期待可能只能停留在“履行”道德行为的机器上,而不是“负责任”的道德行动体。
直觉上,道德与责任都是抽象的概念,难以用机器语言去表征,所以,让机器去确证某一道德行为本身就是困难的。功能主义抱紧“多重可实现性”,认为可以通过模仿人类学习和行为可以实现机器道德,但是,并不是每个人都可以在成长过程中习得道德行为,成为一个具有“美德”的个体。希望在于,我们明确知道一些不道德的行为,这是可以让机器学习的。也就是说,尽管缺乏内在生命,让强AI不具备与人相同的道德地位,但是,我们拥有充分的手段从外部规范它,从这点来说,瓦拉赫的思路看起来至少是有可执行的空间的。但是,我们可能又不得不回到工具主义的老路,这时,考虑的关键不在于AI本身的道德地位,而是AI在社会中定位问题,即一个更广泛的社会学和哲学问题。
斯派洛论证的AI不具备负道德责任能力是比较有力的,斯派洛给人类与AI之间划定了一条可以区分人与AI的界限,即责任的边界。但是所谓道德机器的尝试是不应该被终止的,我们可以在行为主义的立场上让机器行为符合人类的道德评判,但是道德责任必须由人类自身履行。所以,制造具有道德行为的机器是可能的,强AI的认知能力可以保证这点,但是强认知能力不等于具备对行为负责的可能,道德责任只属于人类,而不是机器。