DOI:10.19735/j.issn.1006-0863.2023.04.01 2022年底,由OpenAI研发的大型语言模型Chat-GPT问世,短短几月间引起巨大轰动,于2023年春酿成“疯狂三月”,众多研究机构和公司纷纷推出人工智能大模型(以下简称“大模型”)。ChatGPT具有强大的性能,能够帮助人类完成资料搜寻、代码编写和智能问答等复杂任务,可以替代80%工作种类中的至少10%工作内容,[1]从而极大地推动了各行各业工作模式的变革。类似地,MetaAI于2023年4月公开的图像分割模型Segment Anything Model(SAM)[2]在计算机视觉领域刷新了人们对于人工智能模型能力的认知,被称为计算机视觉的“GPT时刻”。人工智能大模型的出现给社会带来了大量机遇,但同时也带来了全新的治理难题和挑战。相对于一些传统机器学习模型,大模型不仅具有更复杂的结构和更多的模型参数,更产生涌现效应,形成前所未有的推理能力。在许多场景中,大模型已经不再仅仅扮演应用工具的角色,而能辅助甚至自主完成完整的工作流,成为脑力劳动的副脑。这种角色转变不仅在人工智能研究领域产生了巨大影响,同时带来全新的、潜在的治理难题。本文旨在探讨大模型相较于传统人工智能模型可能带来的机遇和挑战,并探讨应对这些挑战的可能路径。我们提出,人工智能大模型的治理不能单独依靠技术或行政手段单独实现。通过技术手段可以避免大模型的诸多潜在危害,但是技术与行政的双重保证才是大模型治理的必要条件。 一、从传统模型到大模型 1956年达特茅斯会议的召开标志着人工智能研究的开端,此后经历了若干次高潮和低谷,而以AlphaGo的问世为标志,深度学习让人工智能再次达到了巅峰。深度学习的目的是从数据中学习和识别特定的模式,以使模型具备预测能力。然而这种基于模式识别的深度学习是否真的具有智能?深度学习在很多任务上表现出色,但也暴露出推理能力薄弱、泛化能力不足的缺陷,特别是这种模型无法形成通用能力,即当训练任务与推理任务不同时,模型无法保证泛化性。 此时,生成式模型横空出世。长期以来,人工智能领域更多关注于判别式模型,生成式模型相比判别式模型而言一般是更难训练的,但随着GAN、DiffusionModel、自监督训练等算法的创新,结合海量数据和庞大计算资源,大规模生成式模型近年来取得飞速进步,极大地拓宽了人工智能的应用场景。生成式模型的优势在于其出色的泛化性,并且它可以不依赖于标签进行优化,省去了巨大的数据打标成本。 目标任务的广度和深度决定了人工智能大模型所具有的革命性力量。其中的代表就是GPT模型[3](Generative Pre-training Transformer)。2018年GPT1问世,OpenAI用预训练的transformer解码器得到可以用于不同下游任务的表征,在GPT2[4]中则进一步尝试了上下文学习(in-context learning)的方法,即不预先设置模型任务,而是将任务包含在文本的上下文中。此后基于instructGPT[5]和GPT3.5的ChatGPT打破了人们对于人工智能大模型能力的质疑。ChatGPT已经发布数月之久,虽然OpenAI的研究证明了模型体量的膨胀会在某一时刻给模型带来推理能力的大幅提升,但是其中的原理依然是黑盒。如今的ChatGPT只需要使用者提供合适的提示(prompt)就能协助使用者完成不同的任务。在大型语言模型发展的同时,大模型在视觉等领域也取得了重大进展。2015年GAN的提出为图像生成的任务提供了全新思路。2020年出现的Diffusion Model[6]已经可以生成出十分精美的图像。CLIP[7]等模型则打通了文本数据和其他数据之间的壁垒,帮助使用者通过语言生成相应的文本、音频甚至视频。如今,人工智能大模型已经可以结合多模态的数据,在不同的数据类型之间搭起桥梁,帮助人类解决更加复杂的任务。 大模型已经切实改变许多行业从业人员的工作流,有效赋能大量工作场景。通过生成式模型生成文本、图像、音频和视频可以有效地节省许多工作任务的时耗。通过上下文学习,ChatGPT等大型语言模型可以很好地完成一些判别模型的任务。最新测试显示,GPT4已经在许多考试任务中超越了人类考生的平均水平。令人惊喜的是,在一些需要逻辑推断的任务中,这些大模型依然可以表现出一定的准确率并输出符合逻辑的推理过程。目前,微软已经将GPT接入其旗下的BING搜索引擎,正式向谷歌发起挑战。中国公司百度、阿里巴巴等机构也陆续发布各自旗下的大模型,并且逐步形成不同场景中的应用。大模型带来的另一大机遇在于全新的工作类型。它们在取代部分工作岗位的同时,也创造了许多全新的工作岗位。例如在ChatGPT走红之后,越来越多的企业开始招聘和大语言模型对话的专职员工,通过编写合适的prompt引导大语言模型辅助工作。 然而,人工智能大模型发展中的一个隐患可能在于:人类并不能按预期控制技术发展方向与速度。人工智能的发展现状与人们在数年前的预期不尽相同,我们也难以清晰地勾勒出人工智能未来发展的理想国。但是,大模型带来的全新治理问题已经摆在了人类社会面前,在这个变革时刻我们能确定的是,对于大模型及其影响的治理与传统的技术治理、算法治理存在着很大区别。在传统的技术治理、算法治理中,模型通用能力不强,因此治理对象在本质上依然是模型的使用者。而对于一个性能强大却在某些方面不可控的黑盒大模型,尤其当该模型涌现出推理能力,模型本身也已经成为治理对象之一。