生成式人工智能的社会伦理风险及其治理  

作 者:

作者简介:
李韬,北京师范大学新闻传播学院教授;周瑞春,北京师范大学中国社会管理研究院、互联网发展研究院特聘研究员。

原文出处:
中国特色社会主义研究

内容提要:

基于行动者网络理论视角,生成式人工智能的社会伦理风险可以认为是在技术应用过程中由人类行动者和非人类行动者开展行动者转译和网络建构所造成的。从行动者转译与网络建构来看,生成式人工智能可能带来的主要社会伦理风险包括:智能互联下的行动者之“恶”传播风险加剧、行动者社会分工体系的结构性危机加剧、行动者转译的技术异化问题更为严峻、“行动者网络”下的数字安全风险增大、行动者“五际”关系维度的数字平权问题凸显。基于此,从合理界定行动者主体的权责关系、加强行动者转译的全过程算法治理、构建人机“共善”的行动者治理共同体等方面推进生成式人工智能的社会伦理风险治理,确保科技向善健康发展。


期刊代号:B8
分类名称:伦理学
复印期号:2024 年 05 期

字号:

      随着ChatGPT作为一种预训练生成对话模型的火爆,通过人工智能生成内容,即“生成式人工智能”(AIGC)①也引发社会各界广泛关注。所谓生成式人工智能,一般是指基于智能算法、模型与规则等生成文本、图像、音视频等内容的技术。生成式人工智能能够通过学习人类语料库,生成相应对话内容,在与各类应用软件的结合运用下,还能进行跨模态内容的生成转换,这就使得AIGC在各个领域的平民化应用成为可能。在人们憧憬科技革命带来数字红利的同时,技术双刃性可能带来的风险挑战也成为学界探讨的重要议题。

      纵观人类历史,任何一次技术变革所带来的各种各样的风险归根结底都会在社会层面扩散蔓延,引发社会结构的调整、社会关系的变迁,影响社会系统建构与运行。马克思就指出“手推磨产生的是封建主为首的社会,蒸汽磨产生的是工业资本家为首的社会”②。事实上,技术是人类社会生产的工具性产物,谈论技术风险的根本性意义在于探究技术对人与人、人与社会、人与自然等一系列社会伦理关系可能造成的直接或间接的风险挑战。当下,人工智能技术的飞速发展与应用使得“技术—社会”互动更为频繁,“硅基智能体”的出现更有可能成为与人类面对面的主体性存在,扩展人类社会伦理关系的内涵与外延。由此可见,在纷繁芜杂的生成式人工智能技术风险议题中,社会伦理风险理应成为焦点所在。所谓生成式人工智能的社会伦理风险,概言之就是生成式人工智能技术及应用在社会层面构成的伦理风险,亦即人类使用生成式人工智能技术产品和服务对社会系统良序运行可能造成的潜在危机、负面影响、间接危害乃至直接破坏,既包括人与自我、人与社群、人与社会、人与自然等关系维度,也包括“人—机”关系维度。那么,生成式人工智能的深入发展和应用,将会带来哪些方面的社会伦理风险呢?面对种种不确定性风险又该从哪些方面入手加以应对?凡此种种,便成为本文研究试图聚焦的重要问题域。

      一、文献述评

      当前,生成式人工智能的风险已经进入国内外学界视野。一是生成式人工智能内容生产可能带来的虚假信息泛滥③、个人隐私数据泄露、意识形态安全冲击④等直接性风险,二是生成式人工智能在教育⑤、新闻⑥、司法⑦等领域应用的间接性风险。从现有文献来看,涉及社会伦理风险的研究较少,而且其中大多数还停留在对生成式人工智能道德主体性的理论探讨层面。包括AI是否拥有权利⑧、AI权利的基础与来源⑨、AI权利是否应当与人类权利保持一致性⑩,等等。比如,Wallach和Allen从“功能道德”的角度出发,认为AI具有弱道德的自主性(11);Hauer指出,若是一项任务在由人类执行时需要某种形式的道德权威,那么将同样的任务转移到自主机器、平台和人工智能算法必然意味着道德能力的转移(12);何怀宏认为,面向人工智能未来的伦理学需要将人与智能机器的关系纳入其中,将智能机器的发展“限制在专门化、小型化尤其是尽可能的非暴力的范围之内”(13)。总体而言,现有文献从研究内容来看,大多是对生成式人工智能在不同领域的技术应用风险进行点状分析,而对风险产生的原因、主要类型、应对之策等,并未能给出整体性、综合性、系统性的理论阐释;从研究视角来看,侧重在对人类个体、群体、社会的线性技术影响,而并未能将技术作为一种社会建构主体性要素,从“人—机”互动关系维度深入考察其社会伦理风险。

      事实上,技术肇始于人类对劳动工具的使用,而使用劳动工具进行劳动生产则是人类从动物界中分化出来的决定性因素之一。由此可见,技术在其产生之初,就对人之为“人”的确证以及社会建构发挥着重要的作用,从农业社会、工业社会到数字社会,人类社会史在某种意义上也可以被视为是一部人与技术的互动互构史、社会伦理关系的变迁史。在此过程中,技术不再是与“人”割裂的客体,而是作为一种“非人类因素”(14)参与社会建构的内生性力量。尤其是随着生成式人工智能机器人的出现,在不同领域、不同行业、不同场景下,技术性的“非人类因素”逐渐成为与人类并行的“非人类行动者”,与“人类行动者”开展着对话交流、分工协作的互动互构,伴生着技术带来的社会伦理风险。综上可见,当前迫切需要引入新的理论框架,对生成式人工智能的社会伦理风险研究进行类型化、系统化梳理,对“人类行动者—非人类行动者”互动关系以及社会伦理风险产生的内在机理进行深入剖析,在此基础上提出有针对性的治理之策。

      二、行动者网络:一个理论分析框架及其适用

      从生成式人工智能研究进展可知,如何从“技术—社会”“人—机”关系维度,探究生成式人工智能作为社会建构行动者的可能风险、规制路径,成为寻找新的理论分析框架的关键。为此,本文拟基于“行动者网络理论”对生成式人工智能带来的社会伦理风险进行深入分析。

      所谓“行动者网络理论”(Actor-Network-Theory,ANT)也被称为“异质建构论”,于20世纪80年代由法国社会学家米歇尔·卡龙(Michel Callon)、布鲁诺·拉图尔(Bruno Latour)和约翰·劳(John Law)等人提出。该理论反对现代工具理性将科学技术视为单一“工具”的主客二分法,赋予包括科学技术在内的“非人类因素”以重要地位,认为对于一个社会系统或网络而言,“任何通过制造差别而改变了事物状态的东西,都可以被称为行动者”(15)。也就是说,人类和非人类因素的行动能力或参与能力在本质上没有区别,即社会是一个人类和非人类两种类型的行动者相互作用的场域(16)。行动者网络理论主要包括三个核心要素,即行动者(actor)、转译(translation)和网络(network)。“行动者”包括人类因素与非人类因素,没有主动与被动、主体与客体之分,更加注重行动中的角色分工与权责分配;“转译”是指不断把其他行动者的问题和兴趣用自己的语言转换出来的过程,包含着利益博弈与协商动员;“网络”是指各类行动者基于不同社会行动目标,彼此之间形成的流动变化的连接关系。行动者网络理论已经被应用到社会学、传播学、教育学等各个学科领域,已成为探讨科学技术与社会互动演进的重要理论分析方法,正如加拿大学者西斯蒙多(Sergio Sismondo)所言,行动者网络理论已经“演变成一种围绕技术科学的一般社会理论,而不仅仅是技术科学理论”(17)。

相关文章: