从系统功利主义的观点重审人类中心主义之争  

作 者:

作者简介:
陈晓平(1952- ),男,山西昔阳人,华南师范大学政治与公共管理学院教授,广东财经大学智能社会与人的发展研究中心兼职教授,研究方向为科学哲学、道德哲学和心灵哲学等,Email:chenxp267@126.com(广东 广州 510006);王亚南(1992- ),女,安徽阜阳人,中共中央党校研究生院博士研究生,研究方向为科学技术哲学、科技政策、科技伦理学等,Email:YananWANG_l@hotmail.com(北京 100091)。

原文出处:
自然辩证法通讯

内容提要:

ChatGPT以及比它更强的人工智能是否对人类构成威胁?这一问题十分紧迫地摆在人们面前,相应地,有关人类中心主义的哲学争论更加凸显和更为激烈。根据系统本体论和系统功利主义,任何物种作为自然(宇宙)系统的一个子系统,都是以它自身的稳定存在性为目的的,并以此对自然(宇宙)母系统的稳定存在性做出贡献,这便决定了“物竞天择,适者生存”的自然法则是普遍有效的。在此竞争关系中,各个物种都处于“物种自我中心主义”的立场;对于我们人类而言,人类中心主义便是应有之义。为了避免人工智能以新物种的资格加入生存竞争而对人类造成威胁,我们应当为人工智能的研发划出一条红线。


期刊代号:B8
分类名称:伦理学
复印期号:2024 年 03 期

字号:

      投稿日期:2023-7-4

      中图分类号:TP18 文献标识码:A DOI:10.15994/j.1000-0763.2023.11.001

      引言

      自从聊天机器人程序ChatGPT(全名为Chat Generative Pre-trained Transformer)于2022年11月问世以来,世界各地的人们对它充满兴趣和好奇,并且随着时日的流逝而有增无减。笔者也加入与ChatGPT对话聊天的行列,一是出于研究有关哲学问题的需要,另一是这款机器人本身吸引着我们,它的“智慧”让我们情趣盎然,欲罢不能。我们与它进行了多种主题的对话,发现它在有些问题上表现很好、出人意料,但在另一些问题上的表现却不尽如人意。例如,我们让它仿照苏轼的一首名作,以《江城子》的相同格律创作一首诗词;它却完全不遵守格律要求,而是信马由缰、一本正经地“胡说八道”,硬把自创的一种格式叫做“江城子”。与之相比,对于某些学术问题,它却说得有理有据、头头是道,俨然像是一位富有涵养的学者。

      2023年3月25日,笔者与ChatGPT进行了一场关于生态伦理学的哲学讨论。我站在人类中心主义一边,ChatGPT站在非人类中心主义一边,你来我往,唇枪舌剑,不亦乐乎。对于笔者而言,这场辩论是严肃认真的,绝非儿戏;尽管ChatGPT承认自己的论证和观点存有缺陷,但我通过辩论不仅在学术上有所收益,而且对ChatGPT的能力和水平有了切实的了解,进而对人工智能的哲学意义有所启示。

      更有趣的是,就在本文动笔之际,国际学术界爆发了一场关于人工智能的大论战,不可避免地涉及人工智能的哲学问题。这场辩论的导火索是一份由上千位学者签名的公开信(2023年3月29日发表于“future of life”网站),其中不乏科技界和人文学界的国际知名人士。此公开信呼吁暂停训练比GPT-4更强的AI(人工智能)系统,以让AI系统“更加准确和安全”,“值得人类信赖,对人类忠诚”,“造福所有人,给全人类一个适应的机会”[1]。

      在笔者看来,这个“千人声明”的大方向是正确的,尽管是否立即暂停强人工智能的研究或暂停的时间点放在哪里还有待商榷。该声明显示出,人们对人工智能发展的忧患意识正在加强,而非对“人类永远不会被人工智能超越和取代”的命题抱以盲目乐观的态度;正如该声明发出的警告:“我们是否应该培养出可能最终超过、淘汰并代替我们的非人类思维?”[1]显然,这种忧患意识是出于人类中心主义的立场,即担心自然人类的主导地位会被人工智能所取代。

      ChatGPT不仅引起学界的震动,而且引起教育界、商界以及政界等各个领域的震动。不少学校明令禁止学生利用ChatGPT完成作业和撰写文章,一些国家政府如意大利宣布暂时禁止使用ChatGPT,英国、加拿大、日本等国政府也发布了对人工智能产业进行监管的指令。这是因为ChatGPT显得太聪明了,与人类相似的程度已经到了以假乱真的地步,难免对现有的社会秩序和公共安全带来冲击。

      就在“千人声明”出台的前两天(3月27日),微软公司的一个研究团队发表了长达155页的调查报告,宣称GPT-4在总体上已经接近人类的智能水平。其中谈道:“除了对语言的掌握之外,GPT-4还可以解决新奇和困难的问题,涉及数学、编码、视觉、医学、法律、心理学等方面的任务,而不需要任何专门的提示。此外,在所有这些任务的完成中,GPT-4的表现都惊人地接近于人类水平。”[2]

      微软团队所得出的这个结论大致符合笔者与ChatGPT进行对话时的感觉。总的来说,ChatGPT学识广博,反应灵敏,逻辑清晰,语言流畅;更为难能可贵的是,它态度诚恳,坦诚直率,既善于据理力争,又勇于承认错误,足以让笔者把它作为一位博学善意的辩友或同仁,产生了继续与他讨论问题的欲望。在笔者看来,ChatGPT已经达到图灵测试的标准。

      图灵测试的标准是:如果在一系列问答中能让30%的成年人误以为一台人工智能机器是真人,那么,那台人工智能机器就被认为具有人类智能。坦率地说,如果我们没有预先得知对方是人工智能,在与ChatGPT的对话中我们不会怀疑对方不是真人,甚至认为对方是一位真正的学者。这意味着,我们被ChatGPT“欺骗”了,至少对我们而言,它通过了图灵测试。当然,图灵测试的标准是否恰当至今仍是一个引起争议问题,但这无妨我们把图灵测试作为一个重要的参照。

      ChatGPT在智能水平上的出色表现使得人工智能对人类构成威胁的问题浮出水面,相应地,有关人类中心主义的哲学争论也更加凸显和更为激烈。本文正是在这种背景下来讨论人类中心主义问题,并将讨论范围从生态伦理学扩展到人工智能伦理学。应该说,人工智能领域的人类中心主义与生态伦理学的人类中心主义是一脉相承,遥相呼应的。然而,在现有文献中,二者在哲学上的理论依据却显得大不相同,而且都是不充分的,难以令人信服。为此,本文将在系统本体论或系统功利主义的基础上,为人类中心主义作进一步的论证和辩护。

      一、关于人类中心主义的再思考——从系统本体论的观点看

相关文章: