让智能系统成为伦理主体

作 者:

作者简介:
徐英瑾,复旦大学哲学学院教授

原文出处:
文汇报

内容提要:


期刊代号:B8
分类名称:伦理学
复印期号:2015 年 07 期

关 键 词:

字号:

       问题的真正解决思路,似乎不在于如何从外部的立场出发,去给人工智能系统“立法”。更值得推荐的思路,或许是让智能系统成为真正的伦理主体——或者说,让伦理性内植于机器自身的程序之中,概而言之就是,将人工智能研究升级为人工伦理研究。

       从霍金的警告到罗素的倡议

       最近,天体物理学家霍金向世人发出警告,说超级人工智能已经对我们人类的生存构成了威胁。此言一出,引发各地媒体纷纷转载。不得不承认,笔者最早听闻这一报道之时,多少觉得有点不以为然。其一,霍金虽是科学界旷世奇才,但其对于人工智能的评论却属于明显的“跨界”言行,其“博眼球”的成分或许已压过了此类评论所应有的专业色彩。其二,人工智能技术当下的发展虽说的确很快,但其是否已经达到了逼近人类智能的地步,却还很难说。严格地说,最近的人工智能技术的进步,主要得益于硬件性能方面的日新月异。譬如,配上了更好的传感器以及更烧钱的数据处理系统的自动驾驶系统,的确可以使自己显得更为“灵敏”;拥有更大的数据库的专家系统,亦可以由此使得自己显得更为“博学”(如几乎无事不知的IBM公司的“华生”系统),等等。然而,在基本的算法层面,最近十年来人工智能界是否取得了某种堪比上世纪80年代“人工神经元网络技术”之兴起的重大科学突破,则颇为可疑(更何况即使是这一“突破”所具有的科学意义到底有多大,学界的意见也是见仁见智)。在此背景下,过分炒作人工智能研究所带来的伦理学风险,是不是有点杞人忧天呢?

       然而,最近计算机业界所发布的一封公开信,则提醒笔者注意到了人工智能研究中牵涉的伦理学问题所具有的复杂性。这份公开信的标题是“关于靠谱的和有益的人工智能研究所应具有的优先性”(网址:http://futureoflife.org/misc/open_letter),发起人是美国加州大学伯克利分校的资深人工智能专家斯图亚特·罗素(Stuart Russell,请读者别和英国大哲学家伯特兰·罗素混为一谈)。应当看到,此信并未像霍金的警告那样充满了对于人类未来的一边倒的悲观色彩,而是充分肯定了人工智能研究对于提高人类生活质量所具有的巨大潜力。但是,公开信也提醒读者注意此类研究所具有的“双刃剑”效应,并积极呼吁伦理学家和人工智能专家合作,兴利除弊,将人工智能的发展所可能带来的负面效应缩至最小。这也就构成了笔者构思这篇小文的由头。

       人工智能研究的四条伦理学规范

       前面笔者已经提及,现有的人工智能系统的“智能”其实都带有隐喻色彩(甚至是商业炒作色彩),因此,很多被冠以“人工智能”的研究其实都是对于一般的计算机软件编程工作的“借壳上市”而已。但是罗素等人的公开信则提醒笔者注意到,即使是这个层面上的人工智能研究,也已经对人类现有的伦理和法律体系构成了不同程度的冲击。譬如,即使是目前不那么智能的智能系统的大规模商业应用,也必然会为劳动密集型企业之生存带来灾难性的威胁(这一点对于第三世界国家而言尤为严重)。这样一来,被机器取代的劳动力的就业出路在哪里?此类人工智能产品的运用,会不会进一步加大人类业已存在的严重的财富分配不公的问题,并从而导致更为严重的社会与政治问题?又比如,大量的计算机统计技术在金融、保险、股市等领域内的运用,会不会导致“未来”变得过于“透明”,而使得相关行业的获利空间不断被压缩以至于趋近于零?又比如,用人工智能技术武装起来的自动驾驶系统一旦出现事故(在这里我们必须预设任何人造系统都会有大于零的事故率),到底由谁来负责,是机器的产权拥有者,还是生产商?而此类机器的生产商又应当承担多少先天的伦理责任,以尽量降低系统产生对人类有害效应的概率呢?请别忘记了,生产商承担的此类责任越多,产品的售价就会越高,而人工智能产品就越有可能被富足阶层所独占——而这种独占本身又会产生另一类伦理学问题。再比如,我们该如何恰当地评估人工智能技术的军事运用所必然带来的伦理、法律与政治后效呢?一方面,我们似乎有很明确的伦理理由去将现有武器“人工智能化”——因为这样的技术升级显然能够使得军事打击变得更为精准,己方伤亡更少,并由此使得战争更为人道;但另一方面,人工智能带给武器的“自主性”对于现有的层级分明的军事指挥体制却是一个巨大的挑战,譬如:人类指挥官如何能够保证其机器人下属不会按照自己的理解去误解其军事指令?甚至我们还可以设想:如若敌对双方的军队都装备了大量具有此类基本自主性智能的军事装备的话,发生人类指挥员所不可预测的偶然性军事冲突的几率是不是反而会被提升呢?

       面对这些错综复杂的伦理学问题,罗素等人的建议是在人工智能的研究中树立四条规范性标准,以使得技术的运用不至于出现失控的状况。这四条标准分别是:“可验证性标准”,即保证设计出来的系统的确能够执行人类希望其执行的任务;“有效性标准”,即保证设计出来的系统肯定不会带来人类所不期望看到的那些危害;“安全性标准”,即保证设计出来的系统肯定不会被不具资质的个人或者团体以不恰当的方式加以利用;“可控制性标准”,即保证设计出来的系统在其不幸出错的时候,能够顺利地向人类移交对于自身的操控权。

相关文章: