中图分类号:G640 文献标识码:A 文章编号:1674-5485(2023)11-0001-12 DOI:10.16697/j.1674-5485.2023.11.001 生成式人工智能是一种能够根据提示生成文本、图像或其他媒体的人工智能系统。著名的生成式人工智能系统包括开放人工智能公司(OpenAI)开发的GPT(Generative Pre-trained Transformer)系列系统,谷歌开发的聊天机器人Bard以及阿里云的通义千问系统等。在众多生成式人工智能中,GPT系列系统在技术成熟度和市场接受度等方面力压群雄,一经推出就在学界引起轰动。目前,国内教育学界关于生成式人工智能对教育影响的研究主要集中在以下几个方面:生成式人工智能对教育生态的冲击和如何促进学校体系重构与转型、生成式人工智能的教育应用与潜在风险等。[1-3]其中,关于生成式人工智能对高等教育影响的研究还比较少,如吴青等指出人工智能助推高等教育变革的优势与潜在风险[4];唐玉溪等分析了高等教育智能化的关键特征[5];王洪才从教学、科研、社会服务、管理、教师职业等角度对ChatGPT冲击下高等教育的未来进行了哲学审视[6]。可以说,目前国内教育学界已经认识到生成式人工智能对高等教育具有多重影响。但是,学者们对生成式人工智能嵌入高等教育所带来的潜在风险的研究仍显不足,且未从智能革命的宏观视角考察高等教育发展的未来图景。本研究意在阐明GPT系列系统的智能原理与学习过程的基础上,探讨生成式人工智能嵌入高等教育的未来图景,分析生成式人工智能的潜在风险及其化解之道。 一、GPT系列系统的智能原理与学习过程 2023年3月14日,OpenAI发布GPT-4,指出它比GPT-3.5更可靠、更有创意,并且能够处理更细微的指令。[7]在OpenAI随后发布的GPT-4技术报告中,研究人员指出,GPT-4在各种学术性考试和语言能力测试方面表现均优于GPT-3.5,且超过绝大多数人类考生。如在模拟律师资格考试中,GPT-4的成绩超过90%的人类考生;在美国研究生入学考试(GRE)中的表现也十分亮眼。[8]GPT-4的优异表现提示我们不要过分关注GPT系列系统具体产品(如ChatGPT)的技术表现,因为在时间和巨大资本的加持下,技术发展速度总是出人意料。正如美国前国务卿亨利·基辛格(Henry A.Kissinger)近期在《华尔街日报》(The Wall Street Journal)撰文指出:“人工智能的能力不是一成不变的,而是随着技术的进步呈指数级增长。最近,人工智能模型的复杂性每隔几个月就会翻一番。”[9]因此,我们只有弄清楚GPT系列系统的智能原理与学习过程,才可能真正预测它对高等教育的影响。 (一)GPT系列系统的智能原理 无论是GPT-4还是ChatGPT,它们都采用了基于GPT-3的自回归语言模型,其设计“原理并没有脱离20世纪中期以来推动人工智能发展的两个重要理论——‘信息论(概率)’和‘控制论(反馈)’”[10]。 信息论起源于科学史上人类对世界总体规律认识的争论。在牛顿所创造的物理学世界里,宇宙就是一个巨大的机械装置,每一个部件都影响着整个装置的运作。物理世界是由一系列有着因果联系的诸多必然事件组成,秩序构成了这个世界的主要特征。而到19世纪末,一系列的科学发现表明,真实的物理世界充满了“混沌”与“偶然”,一切事物的存灭皆是概率。“概率革命”事件之后,克劳德·艾尔伍德·香农(Claude Elwood Shannon)开创了“信息论”这门学科,所谓“信息”就是能提高概率,降低不确定性的东西。[11]“概率革命”和信息论极大地推动了人工智能研究的发展。[12]因为研究人员发现,实现人工智能不必完整复制世界信息,而是可以通过“化约现实”,制造一个与现实世界高度相似的“概率世界”。GPT-3就是基于“化约现实”的思路,利用人类语言的表达习惯,经过海量“语料”的投喂和训练,将人类的总体经验进行“有损压缩”。[13] 控制论(Cybernetics)的创始人和人工智能先驱诺伯特·维纳(Norbert Wiener)认为,身体的在场不是“智能”产生的关键,无机物如果可以模拟人脑神经元的电信号构建一种“信息模式”,就可以实现智能。维纳还指出,实现智能的关键是建立一套“反馈机制”。所谓“反馈”就是“以机器的实际演绩而非以其预期演绩为依据的控制”[14]。如果机器可以在实际情境的训练中得到反馈,那么它就有可能总结出类似情境的通用模型。控制论的“反馈机制”实际上就是GPT系列系统的基本原理之一。GPT-3就是通过自我反馈和人机反馈原理“预训练”出来的。[15] 总之,GPT系列系统的智能原理是基于“概率”与“反馈”建立起来的。类比于人类的学习过程,就是先通过大量背诵形成语言表达习惯,再通过试错和反复强化“优质学习范例”,尝试总结规律。可见,GPT系列的智能原理充满了“联结主义”的色彩。[16] (二)GPT系列的学习过程 GPT系列系统的学习过程大致经历了三个阶段:第一阶段,研究人员向人工智能系统输入海量的语料,使其形成基座模型(LLM),这一阶段就是预训练阶段;第二阶段,研究人员开始输入“优质语料”,使人工智能系统尝试建立一种“要求—应答”的联结,提高其泛化能力;第三阶段,研究人员通过基于人类反馈的强化学习(Reinforcement Learning from Human Feedback,RLHF)技术,尝试让人类与人工智能进行自由问答,并根据结果对它进行强化,使其成为一个“懂规矩”具有一定创造性的人工智能。当然,在这一系列过程中,一些其他重要技术也需要被人工智能了解,如思维链技术,它使人工智能系统可以将复杂的问题分解成许多小问题然后分步骤解决,与伯尔赫斯·弗雷德里克·斯金纳(Burrhus Frederic Skinner)的程序教学法颇为相似。(见图1)