从荀子的伦理方案到机器人的伦理草案何以可能?

作 者:

作者简介:
刘纪璐,美国加州州立大学哲学系教授。

原文出处:
社会科学

内容提要:

在不久的未来,我们或许可以看到有自主行动的机器人进入人类的伦理社区。机器人跟人类不同的基本之处是前者完全是“伪”的成品。在构造材质上,机器人不属于血气之类,不会偏爱其亲,没有感官之嗜欲,不会以私利私欲争夺逞强,更不会有人情之种种不美。在适当的设计之下,机器人可以成为荀子心目中的“君子”。荀子的伦理方案如何应用于机器人的伦理草案呢?如果以荀子的品德伦理学来建构机器人伦理,就必会是一种着重理性规范,以及强调群体结构的伦理方案。在这个基础上来考量机器人的伦理设计,我们可以运用荀子提出的几个必要品德:专一、恭敬、谨顺、诚、信、忠、义,作为机器人的核心结构。以荀子的理念设计的机器人在人类社会中会扮演服务的角色,遵从人类社会的阶层架构,学习模仿有德君子在不同情境下的行为。这种伦理方案设计出来的机器人当然不会是圣人、明君,但也绝对不会成为暴徒、恐怖分子。这样的机器人应当可以融入人类的社会规范,从而得到人类的信任。


期刊代号:B8
分类名称:伦理学
复印期号:2021 年 09 期

字号:

       中图分类号:B222.6 文献标识码:A 文章编号:0257-5833(2021)04-0003-20

       将人工智能的设计加入伦理的维度,有时被称为“人工道德”(artificial morality)①。建构人工道德的一个预设是人工智能的机器在处理有关人事的问题时所作出的判断抉择不能不加入对人类价值观、伦理观、人情世故、社会规范的考量。如果我们依照目前的机器人设计模式,只着重智能与行动能力的设计,而不去考虑如何添加伦理维度,那么日后出现超人式的机器人,有自己的思维方式,发展出自己的价值判断跟行为准则②,就必然对人类社会造成极大的威胁,甚至可能会取代人类的生存空间。所以在讨论人工道德的议题时,我们并不是在对道德的本质作本体论上的申论,而是基于在设计机器人方面一个不可忽略的实用顾虑。正如Colin Allen等人所指出的,“不管人工道德是否是真的道德,人工行动者的行为都会有道德的后果”③。M.安德森(M.Anderson)和S.安德森(S.Anderson)也指出,“机器伦理学的终极目标是要制造出可以自己遵守某些理想性伦理原则的机器,也就是说,这些机器可以在这样的伦理原则指导之下作出它应该采取哪些可能行动的抉择”④。在这些先锋学者之努力下,“机器伦理学”(machine ethics)逐渐成为一个流行的议题,包涵了许多讨论层面,而“机器人伦理学”(robotic ethics)正是其中的一个支流。进一步来说,机器人伦理学是在探讨以人类的伦理学系统应用于机器人的设计会有什么后果,从而反省不同的伦理理论本身是否完满无缺。在哲学上我们可以检视不同的伦理理论会如何规范机器人的思考与行动,但在设计上如何真正把这些伦理规范及价值加入机器人的思路,则是设计工程师的远程目标。在科技达到制造有自主行动意识的机器人这个地步之前,我们必须先作理论上的探讨。一方面是为未来的设计方针作准备,另一方面也是我们在这个语境中对人类的伦理系统的一番反思。至于在社会分工合作的系统里面,机器人的运作会产生的在劳力分配中人机竞争、工作机会、行动效率、主权拥有、权责认定等种种社会实际问题,则超越本文探讨的范围⑤。

       赋予机器人伦理维度的提案主要分为“由上到下”(top-down)以及“自下到上”(bottom-up)两种进路。根据Allen等人的区分,前者是将伦理理论编成计算程式,作为机器人的行动准则,而后者则是开放让机器人学习并模仿人类道德行为的模式⑥。在西方的机器人伦理学的讨论中,康德义务论和功利主义是最流行的两种伦理方案。两者都属于由上到下的进路,因为这两种伦理学都致力于界定普遍性的道德法则,作为个体行为抉择的凭据标准。另外,跟功利主义以及康德义务论的规范伦理学不同的是,品德伦理学(virtue ethics)对机器人伦理设计的走向不是由上到下,设立普遍道德原则让机器人遵守的模式,而是一种混合式(hybrid),融合由上到下与自下到上的两种设计思维。品德伦理学不可能纯粹给予机器人完全开放的学习平台,让机器人以设计好的智能在情境中自由学习道德规则。品德伦理学的要求是在设计上给予机器人一些特质(或选择倾向),以此来规束机器人的行为抉择。也就是说,一方面我们事先界定机器人应有的品德;另一方面我们以机器学习(machine learning)的模式让机器人在各种情境中作出抉择,得到正面或负面的回馈,进而逐渐从中建立一些行为的模型。此种进路类似于人类在童年时期形成道德品性的学习经验。

       本文讨论如何将荀子的品德伦理学应用于机器人的伦理设计。荀子的伦理方案建立在他对人性的预设上,人在本性上就是以利益为思考中心的小人:“人之生固小人,无师无法则唯利之见耳。”(《荀子·荣辱》)⑦人出于血气之属,天性必偏爱己亲:“凡生天地之间者,有血气之属必有知,有知之属莫不爱其类……有血气之属莫知于人,故人之于其亲也,至死无穷。”(《礼论》)人生而好利疾恶:“今人之性,饥而欲饱,寒而欲暖,劳而欲休,此人之情性也。”(《性恶》)人又致力于追求感官之享受:“目好色,耳好听,口好味,心好利,骨体肤理好愉佚。”(《性恶》)同时,荀子假借舜之口批评人的品德不贞:“妻子具而孝衰于亲,嗜欲得而信衰于友,爵禄盈而忠衰于君”,是以“人情甚不美”(《性恶》)。总结来说,人的自然情欲“偏险悖乱”,是以为“恶”。在对人性的这种体会之下,荀子的伦理方案强调礼义之治,师法之教,环境之影响,学习之重要。这些就是荀子所定义的“伪”:“可学而能,可事而成之在人者,谓之伪。”(《性恶》)荀子的伦理方案是一种重视理性思虑与群体规划的伦理愿景。

       将荀子的伦理方案应用于机器人伦理是个相当大的挑战。首先,机器人跟人类基本的不同之处是,人类自然是“性”的发展,而机器人则完全是“伪”的成品。在构造材质上,机器人不属于血气之类,不会偏爱其亲,没有感官之嗜欲,不会以私利私欲争夺逞强,更不会有人情之种种不美。荀子以“伪”化“性”,以理性来规范人情的伦理计划是否根本对机器人用不上?其次,荀子的道德理论以儒家传统社会架构为基础,他讲究重礼义,尊圣人,制法度,待师教,这种种提案是否真能适用于未来的机器人社会?再者,从设计人工智能的角度而言,任何伦理维度的添加都具有高难度,而荀子的伦理学内容繁复,涵括个人、社会、礼仪、法制、教育、君王、圣人等多重层面,要将诸多内容应用于机器人伦理学的建构必然更加困难重重。然而本文接受这个挑战。本文将以不拘于传统儒家体制,并且对荀子文本多加引申的讨论方式,来铺陈一些建议。本文的第一节阐述荀子的品德伦理学,指出其对道德理性的重视;第二节展现将荀子的伦理理念应用于机器人伦理可以进行的方向;第三节比较机器人跟人类在荀子伦理方案下的优劣。

       一、荀子的品德伦理学方案

       荀子对人性的看法基本上是肯定理性的不可或缺性⑧,并且强调理性对人情人欲的调节。荀孟都认可建立道德社会的重要性,也都提出过个人道德的培养方案,因为道德社会的建立是奠基于个人道德的普及。孟子的立场可归于“道德情感论”(ethical sentimentalism):道德是人类内在固有的道德情感之延伸,而恶的存在源自人不能培养足够的道德情感并将其扩充推广。相对来看,荀子的立场属于“理性伦理学”(ethical rationalism):个人的道德来自个人的理性自觉,个人应主动接受外在环境的教化与规束,在学习过程中逐渐养成道德的习性。要是没有社会的教化与个体内心理性的管理,个人的不当情欲便会无法抑制,从而导致恶的存在。荀子“以欲为性”⑨,而欲为“情之应”(《正名》)。他的整个道德心理学便是建立在以“心”统“性”,亦即以理性统管情欲的前提下。荀子以人心为“天君”:“心居中虚,以治五官,夫是之谓天君。”(《天论》)人心为“形之君也,而神明之主也”,是以人的五官、七情都应当由心来管束,如果在心的判断下是对的,便可以为;在心的判断下是错的,便必须放弃:“是之则受,非之则辞”(《解蔽》)。他称人心的认可判断为“可”,这是一种人心反思内心情欲而作出的理性抉择⑩。但在个体的理性判断之上还有一层客观的道与理作为标准。人心必须自觉审视思想欲望是否合乎“理”:“心之所可失理,则欲虽寡,奚止于乱?故治乱在于心之所可,亡于情之所欲”(《正名》)。由此可见,荀子接受客观标准的存在,而人的理性思维应当以客观标准为己身的标准,不能从情所“欲”。这个客观标准也叫“道”,即使圣人也须以道为准:“圣人知心术之患,见蔽塞之祸,故无欲、无恶、无始、无终、无近、无远、无博、无浅、无古、无今,兼陈万物而中县衡焉。是故众异不得相蔽以乱其伦也。何谓衡?曰:道。故心不可以不知道;心不知道,则不可道,而可非道。”(《解蔽》)正如孔子视知道、闻道为士子终身之职责所在,荀子也强调士子应当致力学习以知“道”,以道来规范人心的理性判断。

相关文章: