近年来,伴随人工智能技术创新及其应用步伐的加速,人工智能对于人类社会的影响力日益增加,这也使之成为国际社会普遍关注的重要议题。尤其是在以大语言模型为代表的通用人工智能技术出现重要技术突破的背景下,围绕前沿人工智能可能带来重大风险的担忧,正在推动世界主要国家积极涉入人工智能全球治理进程。2023年英国“全球人工智能安全峰会”、2024年中国“2024世界人工智能大会暨人工智能全球治理高级别会议”、2025年法国“人工智能行动峰会”都是该进程中的关键节点,而它们的共性是试图推动并建立人工智能全球治理的有效机制或平台,在管控风险的同时促进技术的健康发展。 但作为前沿新兴技术,如何理解人工智能带来的安全风险、通过何种机制或平台来管控人工智能安全风险,仍然是摆在决策者面前的重要挑战。在围绕该问题的持续讨论中,相当部分研究者和决策者将人工智能安全风险类比于核安全风险,并提出应参考核安全管控方式来应对人工智能安全风险。①例如,蒙特利尔大学教授、“图灵奖”获得者约书亚·本吉奥(Yoshua Bengio)就旗帜鲜明地要求限制前沿人工智能技术的开放与扩散,因人工智能的超强能力使之类似于核技术,如果被误用滥用将给社会带来重大风险,所以,本吉奥认为,应该像管控核技术那样来管控人工智能技术的研发与应用。②在国际关系领域,尤其是考虑到大国竞争的时代背景,诸多国际关系学者纷纷将目光回溯至冷战时期的核技术时代,认为历史上对于核技术及其风险的讨论为当前理解人工智能时代的国际安全风险及其管控提供了极强的借鉴意义,并提出应参考核技术的全球管控模式来指导人工智能全球治理机制或平台的建设与改革。③其中,最具代表性的是亨利·基辛格(Henry A.Kissinger)与哈佛大学肯尼迪政府学院创始院长格雷厄姆·艾利森(Graham Allison)的观点,他们指出应参考之前的核技术管控机制来阻止当前的人工智能军备竞赛。④基辛格与艾利森的观点进一步被联合国秘书长古特雷斯所借鉴,从而转变为实际上的政策建议。在2023年7月联合国安理会首次举行的“人工智能与安全问题高级别公开会议”上,古特雷斯呼吁成立类似于国际原子能机构的国际人工智能监管机构,引起了彼时舆论的普遍关注。 历史类比是人类最常用的理解世界进而进行决策的方法之一⑤,是指将当前事件、情境或问题与历史上类似的事件进行比较,以发现两者的相似点和差异,从而帮助理解当前情境、指导决策或预测可能的结果。⑥尽管参考核技术全球治理来指导人工智能全球治理改革一定程度上具有广泛的理论基础乃至正在形成政策共识,但是,这种简单类比本身可能存在认知误区,原因在于这一类比忽略了人工智能技术的独特性,不利于理解人工智能的技术逻辑、风险逻辑和管控逻辑,可能为有效应对人工智能时代的国际安全风险带来负面影响。事实上,如果以核安全管控方式来应对人工智能安全风险,不仅可能制约人工智能提升人类社会福祉的潜力,也可能因违背人工智能技术创新应用规律而难以有效应对安全风险的发生与扩散。一方面,核安全管控的严苛性势必影响人工智能技术的开放水平,只能在有限范围内被获取的技术资源与知识将严重影响人工智能作为一般通用技术在各个领域的普及,这不仅可能扩大“智能鸿沟”并进一步加速权力分化格局,也会反过来影响人工智能技术本身的可持续创新;另一方面,人工智能安全风险与核安全风险产生逻辑的差异性,使得以核安全管控模式处置人工智能安全风险存在不适配问题,而这可能会导致真正严重的人工智能安全风险不能得到有效管控,对社会带来实质性伤害。此外,也有些研究者意识到将中美之间的人工智能竞争类比美苏冷战期间围绕核武器的竞争对双边关系乃至国际格局稳定的负面影响,但却未对这种类比的谬误本质、深层次原因及其具体影响进行深入分析。⑦ 正是因为存在上述问题,深入探讨人工智能的核类比逻辑的认知误区,廓清核技术安全和人工智能安全及其管控方式的差异,并在此基础上为未来人工智能安全治理提供扎实理论支撑,在当前便具有重要价值。为此,本文将详细描述人工智能的核类比逻辑的具体表现,分析其背后的根源及其会产生的误导性后果,进而提出知识界、政策制定者和大众应如何协作共同跨越这一类比陷阱。 一、人工智能与核技术:相似性及差异性 在国际关系领域,人工智能正逐渐成为影响全球政治、经济和安全格局的重要力量。⑧学者和政策分析家们常常借用核技术作为类比对象,将人工智能置于类似核技术的认知和叙事框架中,以阐明人工智能的深远影响、潜在风险以及可行的管控路径。现有研究着重强调了人工智能与核技术在三方面的相似性:第一,颠覆性潜能。利益相关方之所以将核技术与人工智能技术相提并论,在很大程度上源于它们都被视为具有战略意义的变革性技术。具体来说,核技术与人工智能技术都具有民用和军用的双重用途属性,是对人类社会能产生深远影响的变革性力量,能够改变国家间力量对比、重塑国际秩序;⑨第二,灾难性后果风险。核技术和人工智能都伴随巨大风险,包括安全风险、伦理问题和治理挑战,而核军备竞赛的历史经验常被用来警示人工智能领域的潜在军备竞赛⑩;第三,迫切性治理需求。灾难性后果和严峻的治理挑战推动着围绕两者的迫切性治理需求,而大国竞争背景的时代相似性讨论也在明示或暗示核风险管控路径对人工智能风险管控具有极强的借鉴意义。(11) 这些关于两者相似性的探讨在逻辑上是紧密相连的。核技术和人工智能都被视为具有颠覆性的关键技术,即体现出相比于之前任何技术创新都更大的变革潜能。因此,二者都被认为可能产生重大且不可逆转的灾难性后果,核扩散对人及自然的影响,以及前沿人工智能技术扩散在虚假新闻、舆论操纵等方面的风险,都成为其所处时代的迫切治理需求。但二者相似性类比并不简单局限于技术层面,大国竞争的时代背景是不可回避的另一重要政治经济因素。正是因为这两类技术的创新应用“恰好”处于国际形势走向对抗的历史进程中,从而放大了技术变革之于主权国家及国际格局变迁的重要性。 上述认知逻辑在理论上可被总结为国际关系理论中的“领先技术”(leading sector technology)视角。传统国际关系理论认为,技术是影响国家间权力结构的重要变量,而其中关键又在于所谓的“领先技术”,即能够引发颠覆性变革、极大提高生产率的主要技术创新。(12)在技术演化史上,纺织业的蒸汽革命之于英国,以及化学工业之于德国都是支撑该论断的典型案例。(13)此时,影响国家间实力对比的关键即在于一国能否相比于他国更早掌握“领先技术”。在“领先技术”理论视角下,核技术与人工智能都可被视为所处时代的“领先技术”,并因此会从根本上影响国家实力,进而影响国家间权力结构。