一、引言
随着深度学习算法的突破性进展与大数据技术的持续迭代,人工智能正深刻重塑审计行业的运行生态。其应用已从自动化数据采集、整理、分析、报告等流程性环节,逐步拓展至为风险评估、异常识别等关键审计决策提供数据驱动的支持。技术嵌入有效提升了特定审计任务的效率,降低了人工操作成本,但随着人工智能在审计核心流程中的参与程度持续深化,审计伦理也面临着新的挑战,这些挑战深刻触及审计专业判断、责任界定与结论可信度等核心价值。面对技术应用伴生的潜在风险,学界亟需审视并重构适应智能时代的审计伦理框架。
二、人工智能应用下审计伦理的新挑战
Mautz等在《审计哲学》中指出,审计是基于专业判断的伦理实践。审计伦理是调节审计关系人(包括审计主体、客体、利益相关者等)之间互动关系的原则和规范。传统审计伦理体系以独立性、客观性和保密性为核心原则,强调审计人员应独立于被审计单位及利益相关者,确保职业判断不受外界干扰,审计结论必须基于充分、适当的证据,避免主观臆断或利益偏向,审计人员在执业过程中严格保护被审计方的敏感信息,防止数据泄露引发的法律与道德风险。传统审计伦理在长期实践中形成的价值准则与行为规范,核心在于平衡审计活动中各方主体的权责关系,维护经济信息的可信性与资本市场的公平性。这种伦理体系以审计关系网络为依托,通过规范审计主体在不同维度上的行为选择,构筑起市场经济的信任防线。
随着人工智能技术在审计领域的逐步应用,其在提升效能的同时,也伴生了一系列值得深入探讨的技术特性与伦理关切。人工智能应用的深入,凸显了技术逻辑(如效率优先、可计算性)与审计伦理核心价值(如独立性、客观公正、保密性)之间潜在的冲突可能性。这种冲突可能性具体体现在下列关键领域:人机协作中主体地位维护与责任归属困境;算法缺陷对审计客观公正性的潜在挑战;数据采集与使用边界拓展对审计保密原则的挑战。人工智能技术嵌入下的新审计生态与伦理挑战如图1所示。
(一)人机协作中主体地位维护与责任归属困境
随着人工智能技术特别是算法决策在风险评估、异常检测等关键审计环节应用的深化,审计实践正面临重构人机协作模式与权责边界的新课题。值得关注的是,在特定情境下(如过度依赖算法或缺乏有效制衡机制)存在审计师职业判断空间被压缩的潜在风险。这种风险体现在:一方面,若审计师过度依赖算法输出而非基于专业知识和批判性思维做出的职业判断,可能意味着审计师倾向于主动放弃其在审计活动中的主体地位,并在特定条件下(如算法决策主导关键结论)对审计独立性构成潜在威胁。需要说明的是,审计活动本身的性质通常不因此改变,但确需警惕审计师作为最终责任主体的核心地位及其履职所需的专业审慎空间在效率优先导向下被不当压缩的风险。另一方面,人工智能技术的深度应用可能出现职业群体技能结构分化的趋势。具备算法解读、模型评估与修正能力的审计师,与主要承担系统操作任务的审计人员之间,在技能要求与职责范围上存在显著差异。这种技术驱动的分层现象,若缺乏有效的职业发展规划和技能提升机制,可能对审计行业维持专业权威和公众信任的职业形象带来复杂影响。
更为复杂的是责任归属困境的深化。智能系统开发者作为审计生态的关键参与者,通过算法设计、参数调校等行为实质性地影响审计结论的形成过程。然而,现行的法定责任框架未能充分涵盖此类参与者的角色与责任边界,使其责任承担状态存在不确定性。这一困境在责任伦理层面具有深刻根源。Mittelstadt等提出的“算法伦理的责任鸿沟”理论揭示了如下核心问题:在人机协同审计的复杂场景下,传统权责边界趋于模糊化,使得风险事件发生后的追溯机制面临失灵风险。具体而言,当审计失败发生时,由于技术系统的复杂性与决策过程的不可完全解释性,加之相关制度规则的适应性滞后,可能在开发者、审计机构、被审计单位之间出现责任追溯困难的现象,形成事实上的责任厘清障碍。传统责任理论主要建构于人类行为者的可归责性基础之上,而算法系统表现出一定程度的自主性与普遍存在的不可解释性,显著加剧了将审计失败后果清晰且合理归因于特定责任主体的难度。
(二)算法缺陷对审计客观公正性的潜在挑战
在特定应用场景或激励机制下(如追求处理速度最大化),算法系统的设计优化目标可能高度聚焦于效率维度(如数据处理量、响应时间),若缺乏对公平性、客观性等审计核心价值的充分考量与平衡机制,则存在与审计目标产生冲突或偏离的风险。
算法偏见是影响审计客观性的关键潜在风险源之一,其产生主要源于数据层面的固有缺陷和设计层面的价值嵌入。在数据层面,训练数据本身可能存在结构性局限,例如样本代表性不足,无法全面覆盖所有相关情况;数据分布不均衡,导致特定行业或规模企业的数据缺失;数据中内含历史性偏见,如过往审计对某些群体的系统性低估。而在设计层面,开发者在构建模型和设定参数时,可能会不自觉地将其主观认知或隐含价值观融入算法逻辑。这些因素共同作用,可能导致算法输出在特定情况下偏离真实公允的结果,进而对审计的客观性造成负面影响。现有研究为此提供了佐证。Crawford在《AI地图》中指出,基于偏差数据训练的算法存在固化甚至放大社会偏见的风险。映射到审计情境,若智能模型依赖此类有偏差的历史数据进行训练,则可能对特定类型实体(如中小企业)产生系统性偏差判断,形成“数字歧视”现象。曹志炜等进一步发现,依赖历史审计数据进行训练的智能系统,在特定条件下(如样本分布不均)可能因训练数据的行业覆盖偏差,导致对不同行业企业的风险评估或结论出现非意图性的显著差异。
算法偏见的隐蔽性加剧了审计客观性保障的难度。算法的复杂性与类“黑箱”特性(指决策逻辑难以被审计师完全解读与验证),使得传统的“基于清晰证据链追溯”的客观性验证原则面临严峻挑战。审计人员可能难以像审视人类决策一样,完整追溯并验证算法结论的合理性基础。Floridi从信息伦理视角强调,人工智能的“内在不透明性”和“潜在不可控性”对审计透明性原则构成了实质性挑战。
更值得警惕的是算法偏见的自我强化风险。算法模型的迭代优化机制可能倾向于筛选并强化符合其现有模式(包括潜在偏见)的数据和证据,存在形成“歧视性决策闭环”的潜在可能性,即系统输出进一步固化初始偏见,并在后续数据收集中优先选择支持该偏见的信息,形成恶性循环。余晖据此分析指出,此类技术层面的透明度缺失与潜在偏差,若未能有效缓解并向公众说明,可能削弱公众对审计结论公正性的理解与信任,进而引发对审计公信力的疑虑。
(三)数据采集与使用边界拓展对审计保密原则的挑战
Munoko等的研究表明,在特定审计场景中,机器学习算法的复杂性和不透明性可能被利用,以规避传统的专业复核流程,某种程度上削弱了人工监督的有效性。肖莎娜·祖博夫在《监视资本主义时代》中提出的“数据攫取”(Data Appropriation)概念,在审计领域的映射体现为部分审计主体可能借助技术能力,超出审计目标必要范围采集数据(如非直接相关的用户行为信息),突破了基于传统审计风险模型确立的数据最小化原则。
推动数据范围扩展的现实原因在于,基于深度学习的审计模型需要大量多源异构数据来提供支撑,而持续迭代的机器学习模型也需要通过持续新增数据来优化自身性能,这使得部分审计机构在一定程度上突破了传统数据边界。这种突破可能导致审计过程在无意间对被审计单位的数据隐私造成一定的影响,甚至可能威胁到其数据主权。在云计算环境下,数据的分布式存储与处理方式进一步增加了数据流向监控和隐私保护的复杂性,从而放大了相关风险管控的难度。
值得关注的是,在追求算法模型“最优化”的驱动下,部分审计人员可能对数据采集范围扩大的现象持默许态度,甚至主动推动边界拓展,这源于“数据规模等同于审计质量”的认知偏差。若未能充分评估这种扩展行为对被审计单位造成的潜在负面影响(如数据滥用风险、隐私泄露隐患),则可能导致审计专业价值的错位风险,即审计机构可能会从“专业的信息保密受托方”的角色定位滑向“技术能力优势主导下的数据操作者”形象。这种角色认知与实践的潜在偏移,如果任其发展,可能严重损害审计行业赖以维系的核心信任基础——对客户数据安全与隐私的严格守护承诺。
人工智能在审计中的应用呈现出多维度的价值调适需求,比如,在追求技术效率提升的同时,需要兼顾伦理原则的坚守度与责任机制的明晰性。这种复合性挑战并非不可调和的对立关系,而是需要提出更具包容性的应对策略。下文提出的应对框架,正是尝试通过系统性的制度创新和技术规约,推动技术应用与伦理价值的协同演进。
三、人工智能应用下审计伦理风险的应对框架
欧盟委员会在《人工智能责任指令(2022)》中明确指出,确保智能审计系统具备充分的伦理约束,对维护审计独立性、保障审计公信力具有关键意义。为有效应对上述伦理挑战,本文提出一个系统性的应对框架,如图2所示。该框架致力于筑牢审计伦理的核心价值根基,推动伦理原则的技术性内嵌,构建协同联动的监管体系,以及优化组织协同与能力建设路径,由此形成“原则—技术—制度—组织”四位一体的协同治理范式。这一范式旨在建立前瞻性、系统性的伦理治理机制,从源头上引导智能技术在审计领域的负责任应用,确保审计流程恪守“独立公正、专业审慎”的价值基准,并最终夯实审计意见公信力的根基。
(一)道德原则:筑牢审计伦理价值根基
在以人工智能应用为特征的现代审计环境下,道德原则构成治理体系的核心价值导向,为技术治理、制度创新与组织协同提供根本性的伦理指引。
1.人本优先原则
人工智能技术的深度嵌入拓展了审计伦理的考量维度,其核心在于对“人—机—社会”协同关系的系统性调适。人本优先原则是平衡技术效率与伦理价值的关键支点,其核心在于确立人类作为道德责任主体的技术治理逻辑。该原则要求坚持“技术服务于人”的底线,明确限制算法决策范围,保障审计人员的独立判断权,防范技术工具理性对专业判断空间的过度侵蚀。人工智能的应用必须以维护人类主体性为根本前提。刘国城主张将“技术谦抑、价值优先”纳入审计伦理准则框架。欧盟《人工智能法案》明确规定,高风险系统必须设置“人类介入”机制,确保审计师对关键决策(如持续经营评估、重大错报风险评估等)拥有最终否决权。
我国现行审计职业道德规范体系,包括国家审计和社会审计领域,尚未将“人本优先原则”作为应对人机协同核心挑战的基础规范进行系统性阐述。现行规范主要围绕审计人员应遵循的基本职业道德准则展开,更多关注审计人员在执行审计业务时应具备的品质和行为规范,而未直接针对人机协同背景下的人本优先原则做出明确规定,缺乏对人工智能应用场景下保障审计人员关键决策权及操作留痕的明确规定。为此,建议监管主体实施如下针对性修订:(1)国家审计,应由审计署主导修订《国家审计准则》,增设专门条款或章节,强制要求在利用智能系统辅助审计时,审计人员必须保留对关键审计判断的实质性决策权,并对相关的人工复核、判断及干预决策进行区块链存证,确保过程可追溯、不可篡改。(2)社会审计,应由中国注册会计师协会主导修订《中国注册会计师职业道德守则》及独立性准则,同步嵌入上述核心要求,即明确注册会计师在人工智能环境下对核心判断的最终责任及关键环节人工介入的存证义务。
2.算法正义原则
部分技术开发者的伦理认知可能加剧价值冲突。这些技术开发者在进行系统建构时,通常秉持“技术可行主义”的理念。他们倾向于将复杂的价值判断问题转化为可量化、可计算的参数指标,借助技术手段对系统进行持续优化。审计工作所蕴含的核心价值,如诚信、公平等,往往是难以用简单的数学参数来衡量的。当算法仅仅基于风险概率来做出决策时,这些至关重要的审计核心价值便在算法的运行逻辑中失去应有的存在空间。当然,这种价值选择并非源于算法设计者的主观恶意,而是系统在优化目标函数时自然产生的伦理盲区。
算法正义原则的实践困境源于技术理性与伦理价值的范式冲突。算法正义原则要求系统开发者搭建“道德代码化”技术架构,将审计专业价值观转化为可操作的道德编码规范。算法正义的实践路径可建构“标准—开发—认证”三阶体系,比如,由国家标准化管理委员会牵头,联合网信办、财政部、审计署、中注协及技术组织,研制“智能审计算法伦理指南”(GB/T),明确公平性、可解释性、可追溯性三大核心要求,并兼容现有AI治理框架;开发者需据此将伦理原则转化为技术约束(如嵌入公平性惩罚算法、自动生成解释报告);最终由权威认证机构(如中国网安认证中心)开展偏差测试与可追溯验证,形成“标准引领—责任嵌入—独立鉴证”的闭环治理。该机制通过在技术层制度化嵌入审计核心价值,实现算法效率与伦理目标的动态平衡,为人机协同审计提供可持续保障。
3.责任刚性原则
随着人工智能在审计决策中的应用逐渐增多,其技术复杂性引发了对归责问题的思考。一方面,部分算法(例如黑盒模型)具有自我迭代功能,其参数能够自主更新,这使得其运行逻辑难以完全解释清楚。另一方面,审计决策过程中涉及多方主体,各方的主体责任边界在某些情况下还不够明确。此外,关键决策过程的留痕机制也存在有待完善的地方。Mittelstadt提出的技术伦理责任困境理论,为理解此类挑战提供了分析框架。责任刚性原则的建构逻辑,正是通过制度设计克服技术复杂性与责任可追溯性之间的冲突,其核心在于设计清晰、可执行且抗规避的责任分配体系,避免技术演进导致责任认定机制失效。
为应对责任追溯难题,建议构建关键操作存证机制,如基于区块链技术对算法参数设置、数据源文件哈希、模型重大逻辑变更、人工复核签名四类核心节点进行存证。该机制通过生成可验证操作指纹链实现三方责任穿透:开发者责任锚定于算法版本与参数变更日志,审计师责任绑定人工复核签名与否决记录,被审计方责任对应原始数据哈希值及提供时间戳。
(二)技术治理:打造风险防控技术防线
技术治理是应对技术风险的重要手段,需结合道德原则与制度要求,搭建智能化防控体系。
1.道德代码化
道德代码化的核心就是把抽象的审计原则变成计算机看得懂、能执行的代码逻辑,就像是给审计系统植入“伦理基因”,即把审计中需要遵循的伦理道德规范变成计算机程序的一部分,让机器也能按照这些原则行事。Munoko建议开发“可解释审计算法”,曹志炜等深化了“道德代码化”的技术实现路径。
道德代码化可通过“标准量化—技术转化—动态监测”路径推进:首先,由国家标准委联合行业协会制定“审计算法伦理指标”,明确可计算参数,为伦理要求提供量化准则;其次,系统开发者将这些准则转化为算法约束,例如在风险评估模型中嵌入公平性约束模块,将伦理规范融入技术实现;最后,监管方通过API接口实时提取决策特征,生成可视化伦理评估报告,替代传统人工审查,实现持续验证。
2.区块链存证
当前审计数据治理面临数据易篡改、证据链不透明和责任难追溯的三重困境。区块链技术凭借其不可篡改(哈希加密)、可追溯(时间戳链)和分布式共识(节点验证)的特性,成为破局的关键。运用区块链技术,可以固化审计全流程数据,利用时间戳和哈希加密实现数据的不可篡改存证,构建审计决策的数字DNA追溯体系,确保从数据输入到决策输出的全链路固化。
当前我国区块链审计存证实践已获初步进展(如最高法确立区块链证据优先采信规则),但仍面临标准分散、实施成本高、系统性能瓶颈及法律衔接不足等挑战。未来可以搭建分层治理体系,推进技术赋能与制度保障的协同升级。技术层面,由工信部组织制定“区块链审计存证国家标准”,统一技术架构与数据接口;制度层面,通过修订《注册会计师法》及司法解释,明确区块链证据法律效力层级并建立跨境互认机制;推广层面,依托政务云平台提供公共节点服务,降低中小企业应用门槛。
(三)制度创新:构建“技术—道德”双重监管体系
人工智能在审计领域的深度应用对传统监管框架提出了新的挑战:第一,现行《网络安全法》《数据安全法》虽确立了算法伦理的基本原则,但规则细化不足,缺乏具体场景的执行细则;第二,规范协同待加强,《中国注册会计师职业道德守则》对职业判断的弹性要求与工信部技术标准对算法一致性的追求之间,需要进一步协调;第三,责任追溯机制亟待完善,现有惩戒措施的威慑效能尚需提升。为应对这些挑战,需通过制度创新构建“技术监管与伦理规约协同治理”机制,比如制定动态化标准、实施穿透式监管、建立惩罚性赔偿机制等。
1.制定动态化标准
技术迭代快于法规更新,伦理准则需实时转化为可执行技术参数,防范AI审计价值失守。动态化标准制定是一种制度转化机制,通过建立弹性规则体系,将抽象的审计道德准则(如独立性、审慎性)转化为可量化、可计算的技术参数,并随技术迭代持续校准,实现伦理要求与技术规则的实时互嵌。其核心在于构建“道德准则→量化指标→算法约束”的可持续转化通路,使技术发展始终运行于伦理轨道之上。动态化标准制定可以通过三层衔接机制,让技术规则和道德准则紧密结合。首先,财政部和中注协把道德准则的具体条款(比如审计独立性)变成具体的可量化参数,工信部根据这些参数制定具体的技术规范;其次,网信办通过监管沙盒实时监测技术应用的风险,动态修订;最后,司法部门把最新的标准嵌入到执行环节作为技术过错裁判的依据。
2.实施穿透式监管
在人工智能审计引发的监管滞后困境中,穿透式监管的构建将突破传统监管的时空壁垒,给“技术黑箱”装上“X光机”,做到实时监测和动态预警,并设置自动熔断。实施穿透式监管可依托标准化监管接口、有限度信息获取、智能化熔断响应等机制。比如:工信部负责制定监管API标准,强制高风险审计AI系统实时传输决策特征权重(如SHAP值)、参数修改日志及人工复核记录;网信办依托监管平台进行有限穿透分析,生成《算法透明度报告》并监控风险指标;审计监管部门执行熔断机制,即触发阈值后立即暂停服务。
3.建立惩罚性赔偿机制
现行赔偿机制在实践中面临惩戒力度不足(如违法收益高于罚款金额)、责任认定困难(如算法决策多主体参与导致责任追溯复杂)及赔偿性质单一(纯补偿性设计可能产生边际激励效应)等结构性问题,这些因素共同削弱了其理论威慑效力。为此,可建立“法定梯度赔偿—协同责任认定—高效执行”体系。首先,建立梯度化责任体系,以《民法典》第1184条界定的实际损失为赔偿基数,对故意违规行为(如算法参数篡改)参照《证券法》第221条处以1~5倍罚款(视情节严重性裁量),对重大过失行为处以1~3倍罚款;其次,设立三方协同认定机制,由工信部通过算法合规鉴定报告量化技术责任,中注协依据人工复核记录评估职业责任,证监会核定市场损失,确定赔偿责任,最终形成责任比例认定书;最后,科技赋能执行路径,依托央行支付系统与行政执法平台直连,在处罚决定生效后72小时内自动完成资金划转至中国证券投资者保护基金账户。该制度的核心在于“过罚相当的惩戒梯度与科技赋能的精准定责”,通过将违规成本提升至技术套利收益的3倍以上,形成实质有效的威慑机制。
(四)组织协同:凝聚合力,协同治理
在伦理治理的复杂生态中,组织协同不仅是资源与职能的整合,更是道德共同体的重建过程。
1.组建跨领域伦理委员会
在AI审计领域,仅从单一学科视角来做出伦理决策是远远不够的。这种单打独斗的方式很容易陷入专业盲区。因此,面对AI审计这种复杂且风险潜藏的伦理挑战,我们需要一个全面的决策机制。为此,可以组建一个跨领域伦理委员会——一个多学科的“超级智囊团”,成员包括技术工程师、执业审计师、伦理哲学家及社会代表。技术工程师负责确保算法的技术安全,执业审计师确保审计过程符合职业准则,伦理哲学家负责评估算法可能带来的价值风险,而社会代表则反馈公众的接受度,确保技术的发展不会脱离大众的实际需求。该委员会实行“四眼原则”联签机制,这意味着任何一项重要的决策都需要这四个不同领域的专家共同签署同意。这种多维度的决策机制,能够确保算法伦理审查的全面性和专业性,避免因单一视角而产生的偏差。这种机制的核心在于形成一个“技术向善”的持续校准机制,增强技术发展的社会认同度。
2.设立公众参与机制
在技术治理过程中,公众话语权的缺失可能导致“算法暴政”的风险,使得伦理决策缺乏必要的社会价值锚点。为解决这一问题,应搭建一个涵盖广泛社会群体的参与网络,增强公众在技术治理中的影响力。通过多元主体的参与,对算法的潜在影响进行多维度的风险评估,确保技术决策能够充分反映社会的多元价值诉求。通过上述措施,可以有效打破“技术黑箱”的认知壁垒,使审计算法成为社会共识的数字化表达形式。这不仅有助于提升公众对技术的信任度,而且能确保技术发展与社会价值观的契合度。
3.审计伦理能力跃迁
技术监管能够有效约束算法的越界行为,但算法偏见、数据霸权等技术风险需通过审计师的伦理直觉实时识别,人工智能的伦理决策仍需依赖审计师的价值判断能力。当监管规则滞后技术迭代,审计师是唯一能灵活响应的“动态熔断器”,在“开发者—算法—审计师”责任链中,审计师是法定责任最终承担者。因此,在审计伦理治理中,审计师伦理能力提升应与技术监管形成双轮驱动,共同推动人工智能治理的完善。
随着人工智能技术在审计领域的广泛应用,其对审计职业发展的影响日益显著,AI技术的快速迭代导致审计人员面临“伦理能力赤字”,传统伦理能力提升机制难以适应人机协同的新要求。需强化技术伦理培训,将算法偏见识别、道德冲突推演等能力纳入审计职业技能认证体系;建立伦理激励机制和“道德领导力”积分制,激励审计人员主动参与伦理治理,将伦理能力与职业发展深度绑定;通过系统化培训和实践,让审计人员既能熟练运用先进技术工具,又能在面对伦理困境时保持坚定的判断力。
四、结束语
人工智能引发的审计伦理问题,本质上是技术理性与人文价值的深层冲突在审计领域的具象化呈现。本文构建的“原则—技术—制度—组织”四位一体治理范式,突破了单一维度的治理局限,通过四大模块的协同联动,形成价值引领、技术赋能、制度约束、组织协同的立体化治理网络。这种治理模式不仅能够有效应对当前的算法偏见、责任模糊等显性伦理风险,更着眼于构建人机协同审计伦理新秩序,为人工智能技术在审计领域的深度应用提供可持续的伦理框架。展望未来,审计伦理治理可进一步聚焦于两个方向:一是结合大模型技术发展,探索“生成式AI审计”场景下的伦理风险演化规律;二是引入行为经济学实验方法,量化分析治理措施对审计人员伦理决策的影响机制。
作者:杨录强
来源:会计之友微信公众号
编辑:孙哲