[中图分类号]D5 [文献标识码]A [文章编号]1006-1568-(2022)05-0123-19 [DOI编号]10.13851/j.cnki.gjzw.202205007 作为战略性新兴技术,人工智能在世界范围内快速发展和应用,其日益显现的算法偏见、安全风险等问题也越来越受到世界的关注。尤其是人工智能不断走向军事应用,给国际安全带来了诸多严峻挑战。在人工智能强大的军事应用潜力驱动下,主要军事国家围绕人工智能领域的军备竞赛日趋激烈,①致命性自主武器系统(Lethal Autonomous Weapons Systems,LAWS)议题的凸显更是在国际范围内引起了越来越多的安全关切、伦理争议乃至对于“生存威胁”(existential threat)的强烈担忧。②在此背景下,人工智能全球安全治理已经成为当今世界的一个重大议题。中国也高度重视人工智能全球安全治理,2017年发布《新一代人工智能发展战略规划》,特别指出要“积极参与人工智能全球治理……共同应对全球性挑战”③。 人工智能全球安全治理属于人工智能全球治理的安全维度,目前已有学者对相关领域进行了初步探讨。④但关于人工智能给国际安全领域带来的主要风险及全球治理方式,还缺乏相对清晰的思路和框架。本文首先基于时间序列的分析框架对人工智能国际安全风险进行考察,揭示人工智能全球安全治理兴起的动因。随后分析目前国际社会在人工智能全球安全治理领域的实际进展以及面临的主要问题。最后尝试提出一种基于风险分级的人工智能全球安全治理方案,探讨在当前形势下进一步推动人工智能全球安全治理的现实路径。 一、人工智能发展应用带来的国际安全风险 正如德国学者乌尔里希·贝克(Ulrich Beck)所言,当今世界已经进入了“全球风险社会”。⑤人工智能技术的快速发展应用也产生了系列国际安全风险。按照时间序列,可以将这些风险进行大致分类。从近期来看,主要安全风险包括战争门槛降低和自主武器扩散。从中期来看,人工智能可能降低战略稳定性,甚至引发核战争。从远期来看,其风险在于超级人工智能的崛起可能对人类整体带来生存威胁。⑥ (一)近期:战争门槛降低与自主武器扩散 战争门槛降低是当前人工智能带来的最为显著和紧迫的传统安全威胁。人工智能军事应用所带来的武器装备无人化和智能化可以有效降低己方军事人员在武装冲突中伤亡的风险,因而能够在一定程度上减少决策者面临的舆论压力,进而降低发动战争的门槛。诸多事件表明,以无人机为代表的自主武器系统正在为国家的军事行动提供更便捷、低成本、高收益的手段,使危险性较高、政治风险较大以及难以实现的打击成为可能,从而极大降低了战争门槛,容易引发国家间的军事冲突。⑦此外,由于网络攻击的高速、隐蔽、低成本、难追溯等特征,各国有很大动力将人工智能运用于这一领域,从而可能诱发网络“闪战”(flash war),即国家间机器算法在极短的时间内进行无数次的自动网络攻防交互,导致冲突升级。⑧鉴于网络攻击目前已具备引发物理伤害的能力,自然成为核威慑下成本较低和风险较小的作战形式之一,而人工智能会强化这一趋势,使战争门槛进一步降低。 自主武器扩散则是当前人工智能发展带来的比较紧迫的非传统国际安全威胁。⑨特别是自主武器落入恐怖组织的风险正在增大。自“9·11”恐怖袭击事件以来,恐怖主义已成为威胁国际安全的一个突出因素,而自主武器对恐怖组织、跨国犯罪集团等非国家行为体具有巨大吸引力,能使其武力成倍增强,节省自身战斗人员,更高效地发动恐怖袭击。⑩更为严重的是,这类非国家行为体通常不会考虑国际规范的限制,从而可能会增加其发起恐怖袭击的频次。在现实中,已经发生多起非国家行为体利用无人机发动袭击的案例。(11)虽然目前的无人机大多数还依赖人的操控,自主程度还不高,但随着人工智能的不断发展和应用,恐怖分子可能制作或购买自主性越来越高的武器系统,从而使国际安全面临新威胁。 (二)中期:战略稳定性与核战争风险 从中期来看,人工智能将可能对战略稳定性带来较大的负面影响,甚至有引发核战争的风险。(12)战略稳定性是冷战时期战略理论家发明的重要概念,旨在描述当潜在对手认识到如果与对方发生冲突难以得利的情况下双方就不会轻举妄动的情形,主要包括危机稳定性和军备竞赛稳定性。其中,危机稳定性是指先发制人与后发制人所造成的后果之间的差别。军备竞赛稳定性则表示一种军备行为是否会引起对手反应并导致军备竞赛状态。(13) 第一,从危机稳定性来看,人工智能对于战略稳定的威胁主要包括三个方面。首先,攻防平衡的破坏诱发先发制人打击风险。根据攻防平衡理论,当防御占优时,战争发生的可能性会降低,战略稳定性会上升;而当进攻占优,发生战争的可能性上升,战略稳定性会下降。(14)基于人工智能的兼备速度和隐身性的自主武器(如无人蜂群)为突破对手的防御体系提供了新的利器,可能会促进攻防平衡朝着进攻占优转变,(15)刺激各国运用自主武器进行先发制人打击获取战略优势,进而降低首攻稳定性。其次,人工智能所强化的“遥感能力”会增大报复性二次核打击力量的脆弱性,从而削弱核威慑和核平衡。不断发展和进步的人工智能和传感器技术使核导弹发射基地、核潜艇等报复性核力量设施更容易被发现、定位和摧毁,从而威胁其生存能力,增大其脆弱性,破坏首攻稳定性和危机稳定性。(16)这类运用人工智能威胁他国核力量生存能力的举动,将会引发相互猜疑和戒备,冲击最低核威慑战略,从而可能引发战略层面的不稳定。再次,一些国家对于人工智能时代“不对称战争”的担忧,导致将人工智能用于核指挥控制系统或提升核戒备等级而引发核风险。一般来说,拥核国家是否考虑使用自主系统,很大程度上取决于它们对于自身二次打击能力的认知。如果它们认为二次核打击力量较敌方更脆弱、更透明,就有可能在核武器系统中加快嵌入自主能力,特别是可以加速决策进程甚至是使“人在回路外”的系统。当前很大的风险在于,冷战时期俄罗斯的“死手系统”(17)和“基于预警发射”(18)(launch-on-warning)等危险策略可能会在人工智能军事应用中逐步显现。(19)但这些举措本身就潜藏着不稳定的风险,因为人工智能与人具有天然的差别,例如,存在“算法偏见”,在危急关头没有基于人类常识和恐惧心理进行干预和“终止”的机制等。从这些角度来看,人工智能军事应用将对危机稳定性带来极大冲击,甚至有引发核战争的风险。