电车难题与自动驾驶系统算法设计中的伦理考量

作 者:
郑戈 

作者简介:
郑戈,法学博士,上海交通大学凯原法学院教授,上海交通大学中国法与社会研究院企划委员会联袂主任,上海交通大学涉及人的科学研究伦理委员会委员。(上海 200030)

原文出处:
浙江社会科学

内容提要:

自动驾驶汽车是人工智能技术得到全面、综合应用的产业领域,涉及到算法自动化决策与人的自主性和尊严之间的潜在冲突。由于法律本身的回应性和救济性特征,导致它无法提前介入到算法设计过程之中,因而无法为算法设计提供向善的指引。我国虽然越来越重视人工智能伦理问题,并为此设立了相关机构,制定了相关规则,但关于人工智能伦理的讨论却停留在科技向善、以人为本等抽象原则的层面,没有形成有针对性的自动驾驶汽车算法伦理。本文通过对德国交通与数字基础设施部伦理委员会报告、伦理学中的电车难题讨论和道德心理学领域的“道德机器试验”的介绍和分析,讨论了为自动驾驶汽车装上伦理方向盘的必要性和可能的推进方式。


期刊代号:B8
分类名称:伦理学
复印期号:2023 年 04 期

字号:

       一、自动驾驶汽车为什么需要伦理?

       2022年11月23日闭幕的上海市十五届人大常委会第四十六次会议通过了《上海市浦东新区促进无驾驶人智能网联汽车创新应用规定》,这意味着车内不配备驾驶人和测试安全员的L4和L5等级高度自动驾驶和完全自动驾驶的智能网联汽车在上海市浦东新区的划定路段和区域不仅可以开展道路测试,而且可以进行示范应用、示范运营和商业化运营等创新应用活动。这是继深圳经济特区于6月通过《智能网联汽车管理条例》后又一自动驾驶汽车领域的重大地方立法进展,表明车上只有乘客而没有驾驶员的无人驾驶汽车在我国公共道路上行使已经不是梦想,而是有法律作为保障的现实。

       另一方面,我国在人工智能伦理方面的制度建设也取得了显著的成就,并开始积极参与这一领域的国际规则制定。2022年11月16日,中国裁军大使李松率团出席在日内瓦举行的《特定常规武器公约》缔约国大会,并向大会提交了《中国关于加强人工智能伦理治理的立场文件》。①文件主张“增进各国对人工智能伦理问题的理解,确保人工智能安全、可靠、可控,更好赋能全球可持续发展,增进全人类共同福祉”。在此之前,我国已于2020年10月21日成立了国家科技伦理委员会,发布了《关于加强科技伦理治理的意见》,在科技伦理原则表述、治理体制、制度保障以及审查和监管等方面迈出了重要的步伐。深圳经济特区和上海市在先后通过的《人工智能产业促进条例》中都提出了科技向善、以人为本的伦理原则,并且都创设了伦理委员会,引入了伦理风险评估、伦理审查、伦理安全标准管理、伦理指引和伦理教育等制度。

       但是,这两个方面的发展并没有有机结合起来。规范自动驾驶汽车的法律没有涉及伦理,涉及伦理的政策性文件和法律中又没有专门针对自动驾驶汽车的内容。这一方面导致自动驾驶汽车算法设计这一最需要伦理指引的人工智能应用领域缺乏伦理指引,甚至缺乏形成伦理共识的制度引导;另一方面又导致伦理方面的规范性文件过于抽象和空泛,只能提出类似于“科技向善”这样的原则,对具体行为缺乏明确的引导和评价作用,也缺乏场景适配性和语境敏感性,而这些品性是伦理考量的基本特征。

       自动驾驶汽车是人工智能技术全方位、集成化应用的产物,自动驾驶系统是一个由感知、定位、决策和执行模块组成的复杂系统,每一个模块都涉及到不同的伦理问题。感知模块借助摄像头、激光雷达、毫米波雷达等各种传感器来采集车辆和环境信息,包括车辆和环境中的人的信息,这便涉及到隐私、个人敏感信息和其他个人信息。虽然法律上规定了告知同意、最少必要等原则,但如何通过技术设计来体现这些原则却涉及到伦理考量与安全考量、性能考量之间的权衡。定位模块同样涉及车辆和车辆中的人的信息,这里具体地说就是位置信息,同时,它还涉及到高精地图,而这又与测绘活动所触及的国家安全和公共安全等利益息息相关。决策模块处理感知和定位模块采集到的信息,并做出相应的选择:是继续沿原来的车道直行还是拐弯?是加速还是减速?是刹车还是通过?执行模块则执行决策模块的选择,做出相应的“行为”。决策模块和执行模块从表面上看类似于人的大脑和四肢,能表现意向性和行为,因此也最直接地关系到伦理,即行为主体出于自由意志而做出的行为,因其对他人、对社会产生的影响而接受的规范性评价。

       最著名的人工智能伦理原则表述,即阿西莫夫的机器人律法②,就是以拟人化地想象机器人能够自主决策和行动为前提的。但实际上人工智能系统并不会通过解释文义而有意识地执行这样的准则,它不会像人类那样通过语言学习和经验累积而直观地判断什么是人,什么是伤害,什么是自我保存。让我们看看一个比自动驾驶系统简单无数倍的简单算法,也就是把垃圾邮件归入垃圾邮箱的算法。即便是如此简单的任务,用传统的符号—逻辑编程方法都难以完成。程序员需要界定无数个如果(如果邮件地址中包含abcde等等字符,如果邮件内容中包含abcde等等字符……),而且即便是在设定了无数的条件之后,出错率仍然很高。如今的垃圾邮件归类算法则采用机器学习的方法,即把相当数量的邮件分别标注为正常邮件和垃圾邮件,然后让算法自己去其中寻找模式或规律,对正确的输出给予奖励,对错误的输出给予惩罚,如此不断优化。自动驾驶系统远比垃圾邮件归类算法复杂,所涉及的训练数据集更加庞大和多样,单是帮助系统识别行人和车辆的算法就需要海量的训练样本,任何用自然语言或数学语言表达的一般性规则都无法变成机器可以执行的命令。从这个意义上讲,人工智能伦理不是机器的伦理,而是人的伦理,是人工智能设计者的伦理,它旨在为设计者提供道德上的“北极星和罗盘”,指引设计者去选择符合伦理且技术上可行的设计方案。

       为什么需要在法律中为伦理考量创造空间呢?首先,这是数字技术时代政府、数字技术企业与普通用户之间新型权力格局的必然需求。“算力即权力”已经成为当下的基本社会事实,而算力主要并不掌握在政府手中。人类社会生活越来越依赖网络和数字技术对海量人类行为数据的处理,从网上购物到日常消费支付,从核酸码到线上会议,从滴滴打车到自动驾驶汽车,每一项日常活动背后都涉及到算力支撑、算法处理和数据生成。在这样的总体数字化环境中,执法者和监管者去监督数据处理的全过程是完全不可能的,让数据主体通过诉讼或寻求行政救济的方式来维护自己的权利也只能起到个案纠错的作用,而无法成为常态。传统的权利本位的法律模式和命令—控制本位的规制模式都无法有效发挥权利保障和风险控制的作用。在这种背景下,由法律来确定框架性和底线性的基本原则,以平台责任的形式将遵循这些原则的责任落实到数据掌控者和处理者身上,使之内化为它们的运营准则和经营成本,政府从外部监督其合规行为,在出现可观察到的疏于履行责任的事件(往往是社会危害后果十分严重的事件)时强力介入,严厉处罚,这无疑是最为务实的一种制度设计方案。这种模式将权利本位和风险规制本位的因素融合到一起,形成了所谓的“元规制”,即强调监管者与被监管者之间的合作而非对抗,行为规则的内化,以及法律和伦理原则在整个数字基础设施中的泛在化。企业一方面需要向政府和公众表明自己在产品和服务设计中体现了保护法定权益和伦理价值的原则,即所谓通过设计保护隐私(privacy by design)、通过设计保障安全(security by design)等等,另一方面需要提出一套标准来规范设计者的行为,以确保规模化的产出不至于埋下出现严重后果引发舆情或导致监管者介入的隐患。这两方面的需求都使得企业本身也有动力去参与伦理原则的提出和公共讨论。

相关文章: