构建多维度AI审计框架思考

作 者:

作者简介:
林慧涓,美国注册管理会计师,北京理工大学珠海学院财务管理系主任、副教授;陈宋生,北京理工大学管理与经济学院教授、博士生导师,全国会计领军人才,北京市优秀人才。

原文出处:
会计之友

内容提要:

02


期刊代号:F1011
分类名称:财务与会计导刊(实务版)
复印期号:2024 年 03 期

关 键 词:

字号:

       一、人工智能对财会领域的影响:机会和威胁

       近年来深度学习技术的崛起、神经网络架构的改进、计算能力的增强以及互联网数据的可用性,共同推动人工智能领域的技术革新。这些人工智能技术在财务和会计方面已经展示出巨大的潜力和价值。

       首先,在数据分析方面,AI和机器学习算法能够处理大量复杂的财务数据,提供更及时的财务报告。这不仅提高财务报告的质量,也使得财务报告使用者的决策更快速

       其次,在风险评估和管理方面,AI技术能够分析历史数据和市场趋势,预测潜在的财务风险,从而助力企业更有效地进行资本配置和风险规避。例如AI算法能够识别信贷风险、市场风险和操作风险等多种类型的财务风险,为企业提供更全面的风险评估。

       最后,在自动化和效率提升方面,AI技术也发挥重要作用。通过自动化财务流程,如发票处理、支付和收款等,AI不仅降低人力成本,还提高财务操作的准确性和效率。此外,AI还能够自动执行复杂的财务模型和算法,从而在预算编制、资金分配和投资决策等方面提供更高水平的自动化支持。在合规和审计方面,AI技术能够自动检测财务报告和交易记录中的不规范和异常行为,从而提高财务合规和审计的效率。不仅在财经方面有着广泛的应用前景,而且在医疗诊断、代码生成、语言翻译等多个领域体现其优越的性能。特别是像ChatGPT这样的大型语言模型,在某些基准测试上已经接近人类的性能水平。

       然而,AI技术的广泛应用也带来伦理和社会的挑战。Weidinger et al.指出,大型语言模型如ChatGPT存在加剧社会偏见的风险。这些模型在输出内容中可能无意中强化对特定社会群体的偏见性描述,从而加剧现有社会的刻板印象。此外,这些模型还可能被用于恶意目的,包括生成高度复杂和个性化的欺诈行为或进行大规模的欺诈活动。同时,AI的架构存在数据泄露和敏感信息推断的潜在风险,这严重威胁个人隐私。因此,从伦理角度对AI严格分析不仅需要扩展现有的治理框架,还需要在风险评估方法、性能基准和伦理框架方面取得革命性的进展。正是这些挑战需要一种跨学科的方法,将数据科学、管理学、伦理学等多个学科联合起来,以全面审视和解决这些挑战。特别是在人工智能审计方面,需要构建一套全面而有效的审计机制,以确保AI技术的健康、可持续发展。

       二、人工智能审计的必要性

       随着人工智能(AI)技术在各个领域的广泛应用,其潜在的风险和挑战日益凸显。这些风险不只局限于技术层面,还涉及社会、伦理、法律和经济等多方面。因此,对AI进行全面和深入的审计成为迫切需求,有必要通过分析未经审计的AI模型可能带来主要问题,探讨开展人工智能审计的必要性。AI模型的主要问题:

       (一)数据偏见

       大型语言模型通常基于大量的文本数据进行训练。如果这些数据包含某种形式的偏见(如性别偏见、种族偏见等),模型可能会学习并在输出中反映这些偏见。这不仅可能误导用户,还可能加剧社会不平等和歧视,从而对社会和伦理方面产生不良影响。

       (二)不准确的信息传播

       由于AI模型是基于其训练数据进行预测和决策的,如果训练数据包含错误或过时的信息,模型的输出也可能是不准确的。这在医疗、法律或金融等关键领域尤为危险,因为不准确的信息可能导致严重的后果,包括误诊、误判或财务损失。

       (三)安全性问题

       未经审计的AI模型可能更容易受到对抗性攻击。这些攻击旨在通过输入特定的数据来误导模型,从而产生不准确或出现误导性的输出。这不仅威胁到模型的可靠性和有效性,而且可能导致更广泛的安全风险。

       (四)法律和伦理风险

       AI模型在生成内容时可能触犯法律和伦理规定,如侵犯版权或涉嫌诽谤。使用这些未经审计的模型的个人或组织可能因此面临法律责任。此外,模型可能生成不道德或不合法的内容,从而引发更广泛的伦理和社会问题。

       (五)可解释性和透明度

       由于未经审计的AI模型通常缺乏可解释性,用户难以理解模型的决策逻辑和依据。这不仅影响用户对模型的信任,还可能导致错误或不合理的决策。

       (六)社会和文化影响

       AI模型可能会生成与特定文化或社会观念不一致的内容,从而引发文化冲突或误解。这不仅可能导致模型在某些文化或社会环境中的应用受限,还可能加剧社会分裂和冲突。

       因此,审计在AI模型的治理体系中被认为是一个重要且务实的工具。这一观点不仅得到学界的重视,而且受到高科技企业和政策制定者的重视。例如,欧洲委员会正在考虑将大型语言模型归类为“高风险AI系统”,这意味着设计这些模型的技术供应商必须接受“独立第三方参与的符合性评估”,即另一种名为审计的活动。

       AI审计的早期研究主要集中在探索和缓解算法应用中可能产生的歧视及其他不良影响,特别是在决策支持系统以及对个体和组织的影响方面。近年来,研究领域逐渐引入“基于伦理的自动决策系统审计”(EBA)这一概念。EBA被构想成一种结构化流程,用于评估某实体(无论是现存还是历史)的行为是否与相关原则或规范相符。与此相对,Brown et al.(2021)提出的伦理算法审计更侧重于评估算法对利益相关者产生的实际影响,并据此识别特定算法的情境或属性。两者主要区别在于伦理算法审计更侧重于实际影响,而EBA更注重原则和规范的一致性。此外,伦理算法审计(Brown et al.,2021)明确将算法作为审计的主要对象,而没有保留被审计实体的开放性。

相关文章: