现阶段,人工智能技术正不断重构传统审计模式。人工智能产品或服务一般具有感知、思考、学习、决策等能力,审计智能化即人工智能技术与传统审计实践融合发展的过程,强调通过运用机器学习、深度学习、神经网络等人工智能技术,以提供基于算法推荐的有价值的审计决策。人工智能技术可以模仿审计人员的认知能力和行动能力,在一定程度上弥补人工取证的局限性并承担部分审计职业判断的职能,从而提高审计效率,保障审计质量。然而,不断演变的人工智能技术在催生正向效应的同时也会带来一系列的潜在风险,例如责任归属、隐私保护、算法偏见等伦理问题。在人工智能技术的持续驱动下,审计智能化的伦理风险正成为需迫切破解的关键问题。 一、伦理风险的内涵 “伦理(Ethics)”一词常常与道德(Morality)同义,用来指人们好的品格与好的行为,是调整人际交往、社会关系的行为规范的总和。伦理风险是指在人与人、人与社会等伦理关系方面由于正面或负面影响可能产生不确定事件或条件,尤指其产生的不确定的伦理负效应(陈爱华,2006)。现阶段,学者们针对人工智能技术伦理风险的研究主要集中在以下几个方向。其一,人工智能技术的伦理风险存在的客观性及治理的必要性。例如,贾开(2019)指出,人工智能技术在极大提高人类社会运行效率的同时,也带来了新的治理风险与挑战。其二,嵌入到人工智能技术不同阶段的伦理风险研究。例如,莫宏伟(2018)区分了弱人工智能阶段和强人工智能阶段的伦理风险。其三,嵌入到细分行业的人工智能技术的伦理风险研究,已有学者探讨了人工智能技术在教育、新闻、金融等行业中的伦理风险及其治理措施。不难发现,如何从更广泛的层面对人工智能伦理风险进行客观剖析及治理的研究已经势在必行且意义重大。 审计伦理是审计人员在审计实践中应遵守的道德规范,然而,纵观现有审计智能化的相关文献,学者们或从宏观视角探讨人工智能技术对审计流程、审计用工方式、审计功能、取证手段等方面产生的影响(Issa等,2016;傅钧彪等,2018;张庆龙等,2020;郑石桥,2021),或从微观视角聚焦于人工智能在审计中的具体应用路径(陈伟,2020;李磊等,2021),鲜有学者系统关注过审计智能化的伦理风险问题。鉴于此,本文将从审计视角出发,首先拟对审计智能化过程中的伦理风险现象进行描绘,再剖析其伦理风险产生的原因,最后设计伦理风险的治理对策。 二、主要表征 马克思主义实践观强调,实践的核心构成要素包括实践主体、实践客体以及实践手段等,参考实践要素的内涵和外延,可推演出审计社会实践论:审计亦为一种社会实践活动,审计实践的核心要素包括审计主体、审计客体以及审计方法等。以审计实践的三大核心要素为支撑点,可初步构建审计智能化伦理风险表征的框架,具体来说,审计主体是执行审计实践的一方,而审计智能化提出了人工智能技术在审计主体中的道德地位以及责任主体判定的命题;审计客体是指对审计对象信息负责的主体,而审计智能化一方面可能泄露审计客体的隐私,另一方面对审计客体难有公平性可言;审计方法是为实现审计目标而采取的技术手段,而审计应用人工智能技术可能带来算法偏见及技术依赖等问题。 (一)与审计主体相关的伦理风险 1.人机边界模糊 人工智能技术在深刻改变世界的同时,也逐渐模糊了人机界限,对人的主体地位产生强烈冲击,有关人工智能技术究竟将助力审计人员还是取代审计人员的讨论正愈发广泛与深刻。部分学者认为人工智能技术可以弥补审计人员的不足并给出更好的审计方案。例如,Huang和Vasarhelyi(2019)认为,机器人流程自动化技术令审计人员从重复和判断程度低的审计任务中解脱;部分学者则认为人工智能技术将更多地替代审计人员。例如,毕秀玲和陈帅(2019)基于人工智能技术设计了“审计智能+”,并将其视为一个能够独立工作的“审计人员”。尽管目前人工智能技术仍然是对人类思维、行为的模仿,停留在工具论范畴,并非真正意义上的道德实体,但未来可能出现强人工智能或超级人工智能,审计主体“数字穷人”或“机器代人”的倾向也将愈发明显,审计人员和人工智能技术边界进一步模糊将带来伦理关系的失调,如何界定二者的关系将成为难题。 2.责任归属困难 罗伯特·莫茨和侯赛因·夏拉夫在《审计理论结构》(The Philosophy of Auditing)中强调:“审计职业应对所有依赖其工作的人承担责任,并以此确立它的职业地位。”从审计行业产生和发展的历史来看,社会责任和公众利益是专属于审计行业的职业属性。例如,中国注册会计师协会(CICPA)的职业道德守则就对注册会计师提出了履行社会责任的要求:“注册会计师应当履行相应的社会责任,维护公众利益。”传统责任伦理通过锚定责任后果相对性主体以实现对过失责任的追究,在此观点下,承担审计责任的主体一般为参与审计实践的组织或个人,然而,鉴于存在“黑箱”现象的人工智能技术所带来的不确定性审计风险无法根本消除,且高度智能的算法能够智能地调整操作参数和规则,审计智能化将逐渐陷入归责性困境,对有关的审计失败开展问责时将进退维谷,即难以区分该审计失败究竟出自人工智能技术还是审计人员,继而产生责任鸿沟(Responsibility Gap),就导致无法清晰确定责任主体,使责任界定、行为监管的判定变得十分困难,最终可能丧失对相关审计责任人问责工作开展的基础。