新技术的普及将改变原有的社会结构,进而改变人与人之间的法律关系。人工智能在改变人机关系的同时,已经对现有的法律体系产生了一定冲击。从全球视野来看,一些国家采取保守主义路径,试图通过解释新的人机现象,将人工智能纳入传统法律框架内处理。另一些国家则采取积极立法路径,通过新的立法与行业标准来规制算法与伦理。2018年多个国际组织在加拿大发表的《多伦多宣言》是欧洲国家立法传统的表现,与欧洲国家的大陆法系传统密切相关。与此相关的,麻省理工学院与其他研究机构共同推出的AI伦理研究①,谷歌公司设立的AI伦理委员会以及2019年发布的人机伦理原则,为私有机构领域的探索奠定了先期标准。美国法院在一系列案件中涉及言论自由与算法规制之间的关系,是普通法体系下保守主义路径的典型表现。 当前人工智能的讨论对技术发展可能引发的伦理危机予以高度关注,即人工智能会否导致人类社会的阶层分化,冲击原有的社会关系,甚至,人工智能成为与原子弹类似的技术武器而对人类的生命形成巨大威胁。这些伦理讨论涉及法律上的生存权与生命权,属于人权的范畴。由此,人工智能的技术与伦理反映在法律层面,就是人工智能算法与人权的法律关系。实践中,智能算法已经出现直接侵犯人权的事例。人工智能时代的关键是算法,算法规制成为法律层面界定人机关系的重要载体与切入点。2017年,中国国务院发布《新一代人工智能发展规划》,提出“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”。人工智能等新技术发展亟待人机之间的新法律关系的挑战,即算法与人权的法律关系调整。在算法规制与人权保障凸显出来的紧张关系上,全球各国采用了何种规制路径与法律思考模式?中国在处理算法与人权关系方面已经或者可能形成怎样的中国方案?这就是本文关注的问题。 一、人工智能发展中的算法歧视 算法实际上不断地与我们的生活融合。公共机构与私人机构两种不同的算法使用主体,在其活动中产生了侵害人权的算法歧视。这些歧视又以直接或间接的形式表现出不同的类型。在公共机构领域,智能算法与司法结合在美国就引起了侵犯人权的质疑。自2014年开始不断使用的嫌疑人未来犯罪风险评估算法(defendant's risk of future crime)被第三方机构批评为侵犯了黑人的权利,有种族方面的算法歧视。这套系统类似科幻电影《少数派报告》中的设计,根据犯罪嫌疑人的年龄、教育经历、祖辈犯罪经历、种族、性别等因素经过一整套复杂的公式计算而得出未来犯罪可能性系数。这一系数得分成为法官判处刑罚的依据之一。美国的亚利桑那州、科罗拉多州、特拉华州、肯塔基州、路易斯安那州、俄克拉荷马州、弗吉尼亚州、华盛顿州和威斯康星州等都采用了这套犯罪风险评估系统。犯罪风险与罪犯未来的矫正可能性密切相关。由此,美国司法部的全国矫正机构已经建议将犯罪风险评估体系用于司法程序的每个环节。这套系统也在不断扩大适用范围,试图用于联邦犯罪评估,相关的法案已经提交给国会裁决。犯罪风险评估系统使用以来,第三方评估机构以及一些保守势力已经做出了该系统可能侵犯人权的警示批评。美国联邦司法部总检察长在2014年就批评犯罪风险评估将把歧视注入法庭之中,“尽管这些技术的研发初衷是美好的,但是它们不可避免地损害我们所珍视的司法公平”②。诺森特(Northpointe)公司负责该项评估系统的算法研发。2016年以来,非营利组织ProPublica新媒体就对该公司的算法结果进行实证分析,显示算法适用的案件在黑白种族方面确实存在歧视,黑人明显比白人的评估结果更差。③ 人工智能的发展凸现出来的伦理问题已经被一些私人机构所察觉。谷歌公司与五角大楼合作的军事项目“Project Maven”旨在通过人工智能来分析无人机拍摄的图像。④该项目的计算机视觉算法增进了武器的打击对象精确度。项目启动后,超过3,000名谷歌员工签署公开信反对人工智能及其算法参与战争。⑤这一事件也导致了谷歌的人工智能与伦理委员会的成立。成立该伦理委员会的本意在于处理智能算法产生的不同结果可能导致的歧视及其军事化用途,但在委员会成员的选择程序中,数千名谷歌员工呼吁罢免委员会成员詹姆斯,因为她对变性人的歧视言论以及她所在机构对世界气候变化的怀疑。⑥算法歧视问题导致算法的伦理监督机构也难以符合人权保障的需求。 智能算法的困境不仅来自“独角兽”企业的威胁,政府常常通过公私合作或者服务购买的形式采用大量的算法。在福利国家的背景下,公民生活的方方面面与算法紧密连接。英国近年来应用数字技术和数据工具以大规模地重新研发公共服务。联合国赤贫和人权问题特别报告员认为,英国公共服务自动化的问题在于不能对公民透明,数字福利国家正在影响人权,“通用信贷已经建立了数字壁垒,有效地阻碍了许多个人获得其应享权利”⑦。低收入人群在数字技能和识字能力方面存在巨大差距。自动化系统一旦上线,英国公共服务的算法将在阶层方面产生歧视。算法不透明成为当前人工智能技术运用于政府服务的重要疑虑。在政治与行政领域,政府甚至可以通过技术操作他们的政治偏好,从而造成不民主的结果。替代人工判断是人工智能的目标,算法接管了政府的诸多行政决策。 人工智能在提升效率的同时,也逐步替代了人类在复杂事务中的判断职能。在行政法治国的背景下,智能算法实质上成为法律体系的一部分。算法的治理化意味着人权、民主、民生等法律价值同样成为算法规制的重要原则。由此,近年来,多个国家、机构与区域组织开展了人权规制与算法规制的课题。其中,2018年5月,人权组织和技术团体联盟在加拿大发布新的智能算法规制的新标准。该联盟发表的《多伦多宣言》(全称是《关于保护机器学习系统中的平等和不歧视权利的多伦多宣言》)代表了人权与算法规制的主流路径。⑧ 二、《多伦多宣言》的法律逻辑 早在《多伦多宣言》之前,互联网巨头公司就已经开始关注算法与人权的关系。特别是随着人工智能技术的飞速发展,诸多算法与歧视、隐私权与大数据等人权困境凸显出来。2018年6月,谷歌公司曾提出七条人工智能应用的“道德原则”,确保技术在正确的轨道上进步。这些原则包括:对社会有益、避免制造或强加不公平的偏见、发展和利用AI技术时注重隐私等。⑨针对人工智能技术扩大贫富差距、武器化、技术滥用等问题,微软公司也出台了相应的伦理原则。⑩《多伦多宣言》强调了防止人工智能算法与机器学习中出现的歧视,强调算法可能违反现行人权法。“我们必须把重点放在这些技术如何影响个人和人权上。在机器学习系统的世界里,谁会承担损害人权的责任?”(11)该宣言虽然不具有法律约束力,但却为处理这些问题的政府和科技公司提供了一个新的指导。