中图分类号:B82 文献标志码:A 文章编号:2095-0047(2019)05-0041-12 人工智能(简称“AI”)正在前所未有地参与到人们的生活当中,它们不仅能够认出人的脸孔、管理家居,甚至能够驾驶汽车、操纵杀伤性武器。这使得人工智能的伦理问题同样前所未有地引起了人们的担忧。人工智能的伦理争议究其根本是一个技术社会化的问题,但它与其他的技术社会化问题又有所不同:首先,以人工智能的自主程度而言,它的社会化涉及一个新社会主体——人工道德能动者的存在论;同时,由于人工智能背后的大数据技术支持,人工智能将具有其他技术所不能及的广泛性。这二者的结合给哲学社会科学造成了这样的困境,如果我们拒绝承认人工智能的道德能动者地位,将会有大量的责任问题处于无责任主体的空缺中;而如果我们予以认可,人工道德能动者作为一种新的社会主体又将带来更多的伦理问题。本文通过对人工智能作为人工道德能动者的特征考查,对以上困境此提出了一种出路,认为在相当长一段时间内,人机混合能动者是解决人工智能的伦理问题的关键主体。 一、从能动者走向道德能动者的AI 机器、机器人或者人工智能被视为能动者已经得到了广泛的认可。事实上,早在塞尔用“中文屋”论证来反驳强人工智能观点时,该理论背后就蕴含了这样一种立场:人工智能可以在一种最小化的意义上具备和人类能动性一样的解释、预测和表征的能力,这也意味着认可人工智能的能动者地位。随着人工智能在近年的急速发展,它突出的决策力和行动力也使越来越多的学者认为人工智能不仅是一个理论上的能动者,而且是一个现实世界中的理性能动者①,被称为人工能动者。这一立场可谓贯彻了拉图尔的“行动者”概念,“我使用actor、agent或actant,并不对他们可能是谁和他们有什么特征做任何假设,他们可以是任何东西”②。 人工智能被设定为一种人工能动者,这引发了两个合理的追问:既然如此,人工能动者是自主的能动者吗?人工能动者是道德能动者吗?从伦理的逻辑上来讲,第一个问题的答案是第二个问题的前提条件,因此,有必要在此简要地回答。目前,人工能动者的自主性在不同研究路径上有不同策略的论证,从基本立场上看,是支持人工能动者的自主性的。利斯特和佩蒂特通过能动者的概念来建立一个能动者的BDI(belief-desire-intention)模型,论证了符合该模型的能动者都是自主的能动者,人工能动者也位列其中;③弗洛里迪和桑德斯④,以及哈格⑤对能动者采取了去心灵化研究策略,认为意向性、自由意志是行动的附加属性,并没有在行动中影响到真实的世界,以此来反对康德主义者“只有拥有理性和自由意志的存在才能具备自主性”的批判,支持人工能动者成为自主的能动者;笔者也曾就主流的人的自主性理论展开讨论,认为人的自主性理论中并没有拒斥非人主体成为自主主体的可能,人工能动者的自主性问题实质是在决定论世界中能动者自主的可能性,而理性回应论能够支持人工能动者实现这一可能。⑥ 如果说第一个问题还比较理论化、距离现实较远,第二个问题则是人工能动者在现实应用中迫切需要答案的,也是本文研究的出发点。道德能动者,简而言之,“是互动的、自主的、有适应能力的并可以实施有道德资质的行动的”实体。⑦从能动者到道德能动者,这一延伸对于人工能动者来讲必须谨慎。公众常常认为,人工能动者所带来的伦理困扰是由于人工智能发展得越来越复杂、越来越“聪明”,或者说越来越像人类,这使得人工能动者能够完成许多困难的工作,甚至是人类无法完成的工作。然而,这些困扰与其说是人工智能的复杂性带来的,毋宁说是人工能动者的自主性带来的。系统复杂性的增加并不仅仅增加了人工能动者的可操作性,也增加了它的自主性,随着自主性的增加,意味着人工能动者越来越多地参与到人的社会生活和社会工程之中。这就使得人、制度和环境等社会要素都参与到了可能的伦理决策当中来。正如瓦莱赫所指出的,技术带来的问题“通常由那些要素(特定的技术、人、制度、环境等等)与社会技术(social technical)系统的其他要素的相互影响而产生”⑧。因此,如果承认人工能动者的道德能动者地位,随之而来的问题就不再是人工能动者本身的问题,而是社会技术系统的复杂问题。问题的复杂性也不是人工能动者系统本身的复杂性,是通过社会技术系统的种种要素相互作用而呈几何数量增长的复杂性。 既然承认人工能动者是道德能动者要面对如此复杂的前景,最简单方便的策略似乎就是直接否定它:不要让人工能动者走向道德能动者,一些学者形象地称之为“no-go”立场。⑨他们的基本观点是认为非人类的能动者不能驾驭“善”或者认为它们缺少成为道德能动者的必要条件之一,即道德责任。他们的理由基本上是基于康德主义的,认为规范的能动者需要自由意志、意向性、道德上可问责、动机和理性,因此,不适于加诸人工能动者。⑩人工能动者总是受制于人类的,它们根本算不上真正的能动者,只是人类的代理能动者。理性解释对于道德能动者来说至关重要,“对它来说行为并不是检验它的重点——不论是自然行为还是机器行为,当理性解释不存在的时候,道德能动者也就不存在”(11)。 No-go立场无疑在理论上延续了人类中心主义的伦理学传统,企图以人类能动者与非人类能动者为界建立一堵柏林墙。但是,这两者都不能让no-go立场站稳脚跟。首先,元伦理的可能性并不应当仅限于人类,人们的思维中对万物有一种普遍的伦理期待。试想,当陨星即将撞击地球的时候,人们依然会希望陨星能“大发慈悲”来避免灾难。也就是说,是否具备心灵并不应当影响人们对相关的行动做出道德评价,将伦理话语局限于个人能动者妨碍了伦理学在当今社会多领域中的发展,例如,集体责任和全球性道德行为。且早在能动者概念扩展至自然人和法人时,人类中心主义就失去了它的主导地位。更重要的是,哲学的划界并非生物学的划界,如果按照人类与非人类的区分来鉴别能动者,倘若有朝一日人类遇见了另外一种智慧生物,那么这种智慧生物将毫无悬念地被认为是非能动者。人工智能在哲学上的划界也不应该是固定的抽象层次,它“使得一个能动者在这个抽象层次上的行为可以被明白地赋予其设计者,则人们应当断定那个能动者不会是一个道德能动者”(12)。因为,如果按照这样的划界方式,任何尚未出现却同样重要的能动者特征都不会出现在这一抽象层次当中,那么具备该特征的能动者都将被排除在外,正如“可观察性”的标准曾经将量子力学置于尴尬之地一样。也就是说,道德能动者的判定不应该基于对事物本质下定义的方式。