中图分类号:N031 文献标识码:A 文章编号:1000-8934(2023)4-0010-07 随着人工智能的不断发展,“谁”来为智能机器的自主决策负责的问题也变得越来越突出。马蒂阿斯(Andreas Matthias)认为,“基于神经网络、基因算法、能动设计的自主的学习机器,产生了一种新的情形,即机器的制造者/操作者原则上不再能够预测未来机器的行为,因此不能为其担负道德责任或债责”[1]。在他看来,这个问题若不能解决,就会出现责任鸿沟(responsibility gap)。面对责任鸿沟问题,人们也一直寻求着填补责任鸿沟的方式。由此产生了三种路径:第一种路径强调人的责任,第二种路径主张智能机器的责任,第三种路径试图确立人机关系责任。然而,三种路径都面临着一定的困境。原因在于:当前对责任的界定还模糊不清,尤其未对第一人称与第二人称责任进行区分。正是因为概念的混淆,导致了问题的争论不休。为此,需要对两种视角的责任进行区分,在区分的基础上填补责任鸿沟。 一、第一人称责任与第二人称责任区分的必要性 当我们界定责任时,主要涉及两种不同的视角:一种是第一人称视角,以行动者自身为出发点,强调行动者自我规定的责任,关注点在于行动及其动机,英文用someone takes responsibility来表达;另一种是第二人称视角,主要是向行动者提出的责任要求,即要求行动者为其行动的后果负责,这样关注的重点就在于行动及其后果,英文用one party who holds another responsible来表达。 两种视角下的责任存在着很大差异,然而,当人们在解决“谁来为智能机器的自主决策负责?”这一问题时,所提出的三种路径都忽视了两者的差异,出现了概念的混淆。因为概念上的混淆也出现了各种困境。 第一种路径强调人在智能机器发展过程中的责任。这种路径认为,人是人工智能的制造者和使用者,由此便要求人来承担全部责任。然而,此种路径会面临如下困境:一是,随着智能机器的发展,机器自主决策的行动超出了人类的控制范围,在这种情况下,如何要求人为其无法控制的机器决策负责?二是,如果智能机器的决策后果既不出于人的意愿,也非由人的行动造成,那么能否让人承担一种无过失的责任?这一路径面临这些困境的原因就在于只是简单地主张人要负责,没有对第一人称责任和第二人称责任进行区分,也就无法在区分的基础上明晰人的责任。 第二种路径主张智能机器的责任。这种路径更是因为混淆了第一人称责任和第二人称责任,引发了更大的争议。支持者认为机器能够为其自主决策后果负责。比如,海勒斯托姆(Thomas Hellstr
m)认为,自主力(autonomous power)以及包括在这一概念中的学习能力是“我们倾向把道德责任归于机器人的一个决定性因素”。[2]105在他看来,高级的学习能力可以让机器人根据“其所接受到的赞扬或谴责学习和改变行为,这样‘惩罚’机器人实际上就是有意义的”[2]105。当海勒斯托姆把学习能力作为负责的条件,即从机器人所具有的属性来确定责任时,采纳的是第一人称的视角;而当他把自主学习能力大致等同于机器人可被谴责的能力,进而又把“谴责机器人”与“归责机器人”等同起来时,采纳的却是第二人称的视角。这便出现了第一人称责任和第二人称责任的混淆。正是因为这种混淆,使其理论面临着一个难以解决的问题,即如何从机器人“能够”被谴责推出我们“应当”谴责机器人?也正因此,海勒斯托姆无法确定机器应被归责的正当性。 还有一些学者提出机器自身就是道德主体的主张。比如安德森(Susan Leigh Anderson)提出机器伦理的最终目标就是“创造一种机器,这种机器遵循着理想的伦理原则或者以一系列的伦理原则作为其行动的指导”[3]。早在1985年,那时计算机的自主能力还没有像今天这么强大,贝希特尔(William Bechtel)就已提出人类有可能设计出一种能够为其自身决策负责的计算机系统。贝希特尔认为这种计算机系统必须是“意向性系统”,即能够根据环境做出调节的适应性系统,在他看来“当我们拥有一些计算机系统,它们是这样的适应性系统,即可以被嵌入在环境中并能够对环境做出适应性反馈,那我们就把握了所有那些当我们归责时所要考虑到的人类特性。”[4]这些特性包括意向性、自由、理性等。也就是说,贝希特尔是在计算机与人类相类比的意义上把意向性作为归责的条件。这里面同样有着两种视角的混淆:一方面从第一人称视角强调机器具有类似于人类的意向性,另一方面又从第二人称视角要求计算机为其决策后果负责。这种混淆直到今天还出现在相关问题的讨论中。人们争论不休的是,我们能否按照人类的特性确定计算机的责任主体地位?意向性可以作为负责的条件吗?即便把意向性作为责任的判定条件,计算机具有意向性吗?