价值哲学视域中的算法歧视与社会公正

作 者:

作者简介:
孙伟平,上海大学智能哲学与文化研究院、马克思主义学院。

原文出处:
哲学研究

内容提要:

算法是以数据为基础资源,以解决问题、完成任务为目标导向的策略机制和运行程序,是人工智能的“中枢神经”和“灵魂”,它本身并不是“价值中立”的。在通过机器学习之类技术采集、存储、分析数据,进而进行自动化决策时,算法设计、编写的主体立场,支撑和训练算法的数据的来源和准确性,算法内蕴的价值负荷和价值选择,特定价值主体基于算法的行为倾向性,以及智能系统的自主评价和决策,都可能导致一定程度的算法歧视,影响社会公正的实现。相较人们熟悉的社会歧视现象,算法歧视更加广泛、多元,更加精准、有针对性,也更加隐蔽、“巧妙”。只有在社会智能化进程中,确立全体人民的价值主体地位,将公正价值观“内嵌”到智能算法之中,并建立动态的评价、监督机制,才能对算法歧视进行必要的规制,重构智能时代公正的社会秩序。


期刊代号:B8
分类名称:伦理学
复印期号:2023 年 08 期

字号:

      中图分类号:B82-057

      社会公正是一个聚讼不断,却时刻关涉每一个人的重大问题。随着智能时代的到来,社会公正受到了信息、智能科技研究和应用的巨大影响,讨论的场域也发生了实质性变化。算法作为人工智能的“中枢神经”和“灵魂”,是打造智能系统的“良芯”和构建公正智能社会的关键。算法的外延比较广泛,目前尚没有公认的关于算法的定义,至少可以从广义、中义和狭义(cf.Chabert[ed.],p.1)的角度界定它;算法是开放的,发展的路径是多元的,“我们还没有终级算法”(多明戈斯,第372页);但算法终究不过是以数据为基础资源,以解决问题、完成任务为目标导向的策略机制和运行程序。利用大数据和算法诚然可以预防、消解某些社会歧视和社会偏见,但算法本身并不是“价值中立”的,在通过机器学习之类算法采集、存储、分析数据,进而进行自动化决策时,常常出现各种各样的歧视与偏见,有时甚至以算法为中介放大既有的社会歧视与偏见,或者催生新的歧视风险、社会不公。由于算法歧视可以并且正在人工智能研发、应用的大量场域出现,对社会公正造成多方面的负面效应,因此,我们有必要立足价值哲学的基本理论架构和主体性分析方法,对算法歧视进行系统的审视、必要的规制,以重构智能时代公正的社会秩序。

      一、算法设计、编写的主体立场与社会歧视及公正问题

      公正是公平、正义的简称,歧视是指不尊重或不平等地对待他人,它们都是价值范畴。许多人将公正视为社会的首要价值,而将歧视视为不公正的一种基本形态。公正、歧视问题虽然十分古老,却极其复杂,极具争议。虽然老子、孔子、韩非子、亚里士多德、卢梭、马克思、罗尔斯、桑德尔等人都曾论及公正,但学术界迄今既没有形成关于公正的普适性定义,也没有确立评判公正的标准和程序。当然,公正或歧视并不神秘,并非不可言说。从价值哲学的视角看,社会公正是为了让个体所得到的与所付出的相称或相适应,公道、合理、无偏私地进行利益配置。它既包括机会公正、规则公正、分配公正等,也要求不贬损、歧视、霸凌和剥夺他人。社会公正或歧视具有鲜明的主体性,理论与实践中都不存在超主体的公正或者歧视。价值主体的立场和结构、利益和需要,以及运用什么样的价值标准作为评判的尺度,等等,都可能导致对社会公正、歧视形成不同甚至对立的看法。

      公正、歧视的主体性首先表现在以下问题:“谁的公正?”“谁在歧视谁?”价值主体不同,社会公正、歧视的意义便可能不尽相同。例如,平均分配一切社会财富是否公正?妇女、未成年人减半分配是否合理?对此,富人与穷人、男人与女人、成年人与未成年人等便明显可能意见相左,甚至尖锐对立。同样地,作为智能系统“核心引擎”的算法也不可避免地具有主体性。因为从生成论的视角看,算法是“主体客体化”与“客体主体化”这样一种主客二元交互的历史性产物,主体在其中发挥着决定性作用。无论是算法的设计创意、算法代码的编写,还是训练算法的数据的甄选、算法的应用与基于反馈的完善,都是主体活动的产物和主体意志的体现。因此,这里需要追问的是,算法是由谁设计和编写的?其中人为选择了一些什么指标或变量?各种指标或变量分别被赋予了什么权重?或者说,算法本身的设计和编写过程、基本内容和应用方式是否包含歧视性内容?是否给予了所有利益相关方以“知情权”“陈情权”(参见杨、洛奇,第25页)和决策参与权?

      毕竟,离开一定的价值主体讨论算法的社会公正、歧视问题是空洞而没有意义的。由于不同的宗教、民族、国家、地区、企业、群体和个人的立场不尽相同,在不同历史阶段的目的、利益和需要不尽相同,所信奉的价值观和评价标准不尽相同,因而即使是对于同一事物的公正评判,结果往往也不尽相同,有时甚至针锋相对,不可调和。例如,站在绝大多数人的立场上,由绝大多数人投票选择,就可能损害少数人的权益,甚至造成对少数人的宰制和强权;站在穷国(富国)、穷人(富人)的立场上,则可能难以抑制心底里的仇富(鄙视穷国、穷人)心态,将杀富济贫(排斥穷国、穷人)视为正义的行动方略……这一切通过算法设计、编写和应用的价值主体,明确地或者隐蔽地体现在相应的算法之中,就可能丧失商讨社会公正的基础,失去消除社会歧视的前提。

      值得特别关注的是,随着现代科技的快速发展和广泛应用,“人是什么”,或者说“谁”可以成为社会公正、歧视的价值主体,这些本来清晰的问题似乎变得不那么确定了。一方面,自然人正在被各种智能技术、生物技术所“架构”和“改造”,用各种高新技术和装备“武装”起来,可以人机协同甚至可望人机一体地开展社会生产和生活;另一方面,包括人形智能机器人在内的智能系统的智能水平突飞猛进,甚至日益具有自主性、计划性和创造性,表现得“越来越像人”,许多素质和能力(如感知或采集数据的能力、存储或记忆能力、运算或加工能力等)都已经超越了自然人。人机之间的界线正在变得模糊,人机关系正变得异常地复杂。“人是什么?”“智能机器人是否是人?”“智能系统的活动是否可被称之为劳动、实践?”“智能系统是否可以成为政治、经济、文化和道德主体?”“智能系统是否应该享有与人一样的权益?”……都成了需要重新思考和定位的问题。

      与之相伴随,在算法的设计和编写过程中,人是“万物之灵”和“世界的主宰”,坚持“人是目的”“以人为本”……这类传统的“人类中心主义”立场是否可取?是否体现了智能时代的基本特征和公正精神?因为固守这样的传统立场,智能系统(特别是人形智能机器人)就只能被视为像刀、斧一样的“工具”,其立场、权利、尊严等就得不到主张和保护。例如,超负荷使用智能系统(特别是人形智能机器人),坏了不修甚至“坏了就扔”,以及轻视、虐待运行状态中的智能系统,等等,都可能成为理所当然、无人过问的常态。然而,在现代生态伦理、动物伦理等应用伦理理论中,猫、狗之类宠物都已经获得了一定的权利,具有丰富的知识,日益拥有“类人意识”“类人行为”的智能机器人反而不如宠物,只被视为普通的工具。这样做是否有违公正理念的内涵?同时,日益强大的智能系统是否会“认同”、永远接受并屈从这样的地位和命运?

相关文章: