可信赖人工智能教育应用的建设路径与现实启示

作者简介:
沈苑,北京大学教育学院博士研究生;胡梦圆,北京大学教育学院硕士研究生;范逸洲,博士,北京大学教育学院助理教授,硕士生导师;汪琼(通讯作者),博士,北京大学教育学院教授,博士生导师(北京 100871)。

原文出处:
现代远程教育研究

内容提要:

人工智能技术在辅助教学上展现出了巨大潜力,也因其不透明性、无法预测性以及不当使用而引发争议,建设可信赖的人工智能教育应用(AIED)成为国际共识。可信赖AIED强调“以人为本”的价值宗旨,以可靠、安全的AI技术为底层基础,以合伦理性的理解和使用为关键保障,观照教育情境的复杂性,摒弃将通用AI伦理原则或其他AI应用领域的专业伦理原则生搬硬套到教育领域。英国作为人工智能伦理治理的先行者,在可信赖AIED建设方面积累了丰富经验,尤其体现在《人工智能保障生态系统路线图》中。该《路线图》从技术的开发、采购与使用三大阶段出发,分别采取伦理设计、伦理核查和AI素养培养等具体策略,构建了可信赖AIED的保障体系。借鉴英国AIED的典型举措,我国应在开发阶段对智能教育产品开展本土化的价值敏感设计,采购阶段对智能教育产品的可信赖度做出有意义的解释,使用阶段对师生用户的人工智能素养加以培养和提升,以推动技术开发者、产品采购者、一线使用者等利益相关方共促可信赖AIED的本地建设。


期刊代号:G1
分类名称:教育学
复印期号:2023 年 11 期

字号:

       一、引言

       近年来,人工智能教育应用(Artificial Intelligence in Education,AIED)为教育形态的重塑提供了巨大的可能性。尤其是以ChatGPT为代表的新一代人工智能,更是凭借其高生成性、高自主性、高交互性,对传统的教育方式和教学方法带来冲击,并进一步推动“因材施教”“终身学习”等教育理想走向现实。同时,因机器学习具有“黑箱”特征,与之相关的安全性和透明度等伦理质疑也开始蔓延(Dignum,2019)。总体来看,AIED对于传统课堂来说尚属陌生的“外来物”,在师生信赖不足的情况下,不乏技术误用、滥用、弃用等情况出现。为保障AIED充分发挥其功能优势并为教育赋能,亟须建设起符合伦理要求且值得师生信赖的智能生态系统。基于此,探究可信赖的人工智能教育应用(Trustworthy AIED)成为教育领域重要的研究话题。

       长期以来,英国一直都是人工智能伦理治理的先锋。作为“人工智能之父”艾伦·图灵(Alan Turing)的故乡和诸多著名AI企业(如DeepMind)的发源地,英国对AI伦理问题在政策上给予了大量关注。例如,在《人工智能行动计划》(AI Action Plan)中,英国政府将“有效治理”作为国家发展AI的三大目标之一。2021年,英国中央数字与数据办公室、人工智能办公室与内阁办公室联合发布了《自动决策系统的伦理、透明度与责任框架》(Ethics,Transparency and Accountability Framework for Automated Decision-Making),提出了保障系统安全、可持续、伦理性的7项要素(GOV.UK,2021)。同年出台的《人工智能保障生态系统路线图》(The Roadmap to an Effective AI Assurance Ecosystem,下文简称《路线图》)明确提出了各利益相关方在建设可信赖AI过程中应分别承担的责任(CDEI,2021a)。近年来,英国的学术组织、研究机构、学校也都在努力探索可信赖AIED的建设路径,贯彻相关政策的核心精神,积累了丰富的实践经验。有鉴于此,本文将首先对可信赖AIED的发展和建设背景进行分析,然后针对英国在AIED全生命周期中开展伦理治理的具体实践与典型案例进行剖析,最后从AIED设计者、采购者和一线用户等利益相关方的视角出发,反思和总结英国相关举措对于我国可信赖AIED本土建设的启示。

       二、可信赖AIED的发展背景

       “可信赖AIED”由“可信赖AI”这一概念引申而来,梳理其内涵发展、现实困境和领域特征,有助于人们达成对可信赖AIED的一致共识。

       1.可信赖AI的内涵发展

       我国学者李应潭在《人工智能可信赖性与可信赖算法研究》一文中将“可信赖AI”描述为“在没有硬件故障的情况下,对于向它提出的一批问题,能够做到没有把握或无力回答的就不回答,有把握的才回答,回答的则保证正确”(李应潭,1999)。21世纪以来,这一概念强调的重心逐渐从技术维度转向伦理维度,成为了社会技术伦理治理的最终目标之一。国际标准组织/国际电工委员会的第一联合技术委员会(ISO/IEC JTC1)将人工智能的“可信赖”界定为“有能力提供客观证据证明AI产品或系统可以完成特定要求以满足利益相关者的期望”(ISO/IEC TR 24028:2020,2020)。

       英国政府在人工智能相关战略制定方面始终非常强调人工智能的“可信赖”问题。2016年,英国政府发布《人工智能:未来决策制定的机遇和影响》(Artificial Intelligence:Opportunities and Implications for the Future of Decision Making)报告,指出“公众信赖”是人工智能得到有效利用的必要条件,建设信赖的核心在于公开的对话(GOV.UK,2016)。2017年,《在英国发展人_T智能》(Growingthe Artificial Intelligence Industry in the UK)报告再次指出,建立公众对AI的信赖对于英国人工智能的成功发展至关重要,特别要增强数据信赖(Data Trust),以促进数据持有方和技术开发方之间安全地共享数据。该报告还要求行业与政府携手开发经过验证的框架和协议以确保数据共享的安全性和互惠性(Hall,et al.,2017)。2018年4月,英国上议院下属的人工智能委员会发布《英国人工智能发展的计划、能力与志向》(AI in the UK:Ready,Willing and Able),指出如果公众被过度暴露于负面的、失真的AI描述中,可能会导致公众反弹,同时承认某些人工智能应用本身可能涉及误导和欺骗,应辩证看待AI技术(House of Lords,2018)。此外,英国数字、文化、媒体和体育部(DCMS)在《国家人工智能战略》(National AI Strategy)中进一步重申要建设“世界上最受信赖和支持创新的人工智能治理系统”的愿景(Kwarteng,et al.,2021)。

相关文章: