人工智能的伦理建构

作 者:

作者简介:
于雪,大连理工大学,辽宁 大连 116024; 段伟文,中国社会科学院,北京 100732 于雪(1989- ),女,辽宁大连人,大连理工大学人文与社会科学学部哲学系讲师、硕士生导师、哲学博士,主要研究方向为技术哲学、科技伦理等。 段伟文(1968- ),男,湖南冷水江人,中国社会科学院哲学所研究员、博士生导师、哲学博士,主要研究方向为科学哲学、技术哲学、科技伦理等。

原文出处:
理论探索

内容提要:

人工智能2.0时代标志着人机一体化新一代技术革命的来临,这种背景下建构人工智能伦理不仅重要而且必要。人工智能技术具有不确定性、隐象性和系统复杂性,其伦理建构需要遵循整体性、过程性、适应性、相容性、灵活性和鲁棒性等原则。人工智能伦理的框架建构可以通过明晰人工智能伦理的基本价值、确定人工智能伦理的基本标准,以及落实人工智能伦理的相关责任这三方面得以实现,并且通过嵌入设计、合理使用、合作管理和多元参与这四条实践进路来推进。


期刊代号:B8
分类名称:伦理学
复印期号:2020 年 01 期

字号:

       [中图分类号]N01 [文献标识码]A [文章编号]1004-4175(2019)06-0043-07

       随着人工智能2.0时代的来临,“人工智能+互联网+区块链”的技术合作模式激发了人工智能技术在各个领域的应用,掀起了人机一体化的新一代技术革命[1]。2017年,国务院出台《新一代人工智能发展规划》,提出“建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力”[2]。理论上看,对人工智能技术进行伦理规约有两种可能的路径。一种路径是使人工智能的设计符合现有的伦理规范,但人工智能技术的发展无论是深度上还是广度上都表现出一种开放性的态势,其发展与伦理应对都处于一种未完成的状态,现有的伦理规范可能无法完全回应人工智能技术带来的潜在风险。这就需要采取另外一种路径,即通过制定新的伦理规范为人工智能的发展划出合理的伦理边界,以实现人工智能技术的“向善”目的。诚如亚里士多德所说:“一切技术,一切研究以及一切实践和选择,都是以某种善为目标。”[3]因此,建构适合人工智能技术发展的伦理框架不仅重要,而且必要。

       一、人工智能伦理的内涵及其建构原则

       (一)人工智能伦理的内涵。建构人工智能伦理,首先需要回答“什么是人工智能”。目前关于人工智能的定义可以总结为三种类型:一是将人工智能定义为与人类行为相似的计算机程序;二是将人工智能定义为会自主学习的计算机程序;三是将人工智能定义为能够根据对环境的感知,采取合理的行动,并获得最大收益的计算机程序[4]。这三种定义分别倾向于模拟人的行动能力、人的思维能力或学习能力以及人的理性能力。这三种人工智能的界定都在一定程度上涉及到伦理问题,因此需要将其作为一个整体来考察。以此为起点,阐释人工智能伦理的内涵可以按照“界定→理解→表述”的逻辑顺序展开:(1)界定人工智能伦理的基本概念,这意味着需要对现有人工智能的概念、基本范畴、主要问题进行解释和整合,从中提炼出与人工智能伦理相关的基本议题;(2)在把握人工智能伦理基本概念的基础上,获得对人工智能伦理话语体系的一致性理解,即能够对人工智能伦理的核心概念和相关用法达成共识;(3)建构适合人工智能伦理的表述体系,例如是应当以人类为主导建构伦理表述体系,强调当设计、发明、使用人工智能的时候,你(人类)应当……,还是以人工智能技术为主导建构伦理表述体系,即你(人工智能,AI)应当……基于这一思路,为了便于讨论,我们可以提出人工智能伦理的定义:在人工智能产品、服务、应用与治理中,智能体(人与智能机器)所应该遵循的一般伦理原则和行为规范。

       (二)建构人工智能伦理的基本原则。人工智能技术的发展表现出三个明显的特征:一是不确定性,即人工智能技术发展过程中可能出现的新情况以及可能产生的后果难以确定。二是隐象性,基于大数据和机器学习的人工智能技术难以从直观上把握,出现问题前可能没有明显的征兆。三是系统复杂性,人工智能技术的研发需要各学科、各行业、各部门的人员相互配合,在复杂大系统中协同工作,彼此之间的沟通与协作可能存在一定的困难。

       基于以上特征,要想建构恰当的人工智能伦理,须以基于“实践智慧”的弹性伦理思想为宗旨[5]1-3。具体看来,建构人工智能伦理过程应当遵循以下基本原则:(1)整体性原则。人工智能伦理的建构应当体现宏观视角,能够对人工智能发展的整体规律有一定的掌握和预见,从整体的高度建构人工智能伦理。(2)过程性原则。人工智能伦理的建构应当关注人工智能技术发展的全过程,从设计、生产、操作、应用等各个环节共同参与建构。(3)适应性原则。人工智能伦理的建构应当体现出可适应性,即为了更好地实现其伦理规约的功能,而适当地改变其价值要素或者增加新的价值要素以适应伦理价值本身的变化。(4)相容性原则。人工智能伦理的建构应当体现整体与局部、一般与个别、当下与未来的相容性,在伦理建构的过程中应当考虑一般性与特殊性,以保证伦理价值在不同情境中的相容性。(5)灵活性原则。人工智能伦理在保证尊重核心伦理价值的前提下,要体现具体案例具体分析的弹性处理办法,以适应人工智能技术自身的隐象性、不确定性和复杂性。(6)鲁棒性原则。这里指的是“价值鲁棒性”,即通过设计的方式调整价值的合适域,使价值能够在一定范围内保持稳定,不会随着外在环境的变化彻底颠覆。遵循以上基本原则建构人工智能伦理,可以在充分考虑人工智能技术自身的特点和发展趋势的基础上,实现对人工智能技术的伦理治理。

       二、人工智能伦理建构的基本框架

       在充分考虑人工智能技术需求和社会需求的基础上,可以从明晰人工智能伦理的基本价值、确定人工智能伦理的基本标准,以及落实人工智能伦理的相关责任这三个方面实现人工智能伦理的框架建构。

       (一)明晰人工智能伦理的基本价值。建构人工智能伦理的一个核心环节是确定人工智能技术应当遵循的伦理价值。价值指的是“人们普遍认为应该为之奋斗的持续的信念或者事件,这种奋斗不仅仅是为了他们个人,而是为了能够获得一种好的生活或实现一个好的社会”[6]72。在科技伦理领域内,价值有其特定的范式。一般而言,科技活动的伦理价值可以从核心层、基础层和实践层三个层面来理解。实践层面的科技伦理价值指的是科技活动中具体的行为规范,基础层面的科技伦理价值指的是指导这些科技活动一般性的伦理原则和基础性的伦理价值,而核心层面的科技伦理价值则建基于人类的核心价值,即建立在主体理性之上的人的尊严、幸福、自由、关爱等内在价值。这三个层面的价值之间的关系是:实践层的伦理价值受基础层的伦理价值指导,而基础层的伦理价值来自于核心层的人类价值。三个层面的伦理价值层层推进。具体而言,按照当代科技伦理学家瑞斯·尼克(David B.Resnik)的观点,科技伦理行为应该体现:“诚实、审慎、公开性、自由、信用、教育、社会责任、合法、机会、相互尊重、效率与尊重主体”[7]63-88这十二项伦理价值。在科技活动中,专业人员所遵循的基本价值诉求是公众利益优先,即以负责任的专业服务造福社会。弗雷德曼等人针对信息通讯技术(ICT)同样提出了十二条伦理价值,分别是:“人类福祉、财产权、隐私、无偏见、普遍可用性、信任、自主性、知情同意、可解释性、同一性、平衡和环境可持续性。”[8]55-59这些科技伦理的价值可以划分为指标性价值和实践性价值两类,前者体现了科技活动的宗旨,是科技活动应有的与人类价值相一致的基本价值;后者指的是基于指标性原则的要求、在科技实践中的具体行动所遵循的价值[9]。由是观之,基于科技伦理价值的伦理构建策略是:首先将指标性价值与人类一般伦理价值保持一致,进而通过实践性价值规制具体的科技活动。这一策略为建构人工智能的伦理价值框架提供了指南。人工智能技术的指标性价值应为人类福祉,这里既包含了积极实现人类福祉的公共福祉优先和客观性价值,也包含了被动实现人类福祉的尊重和无害原则。而人工智能技术的实践性价值应该在以人类福祉为核心的前提下,对涉及人工智能技术的具体行为进行价值设定,其本质是促进人工智能的创新与发展。

相关文章: