【中文摘要】人工智能在重塑金融市场运行逻辑和监管策略的同时,也存在加剧并放大系统性风险、引发决策错误、个人数据信息泄露、技术伦理失调和竞争失序等风险的可能性。本文通过分析当前包括伦理保障、技术标准、风险分级与敏捷治理等在内的金融监管策略,发现其中的局限主要体现在制度规则结构不对称、惩戒机制滞后、治理制度难以协同等方面。针对其局限性,本文提出对金融领域人工智能的监管应从时序、空间和主体三重维度予以应对:在监管时序维度上实现事前规制的转型;在空间维度上推动“设计即监管”,将法律规则与伦理要求内嵌于模型设计与运行过程;在主体维度上构建政府、市场、社会多元协同的治理网络,以实现金融领域人工智能应用的稳健创新与规范发展。
【关键字】人工智能;金融监管;金融科技;金融法;数字金融
一、问题的提出
人工智能技术正在重构全球金融市场的发展图景。作为驱动经济社会数字化转型的核心引擎,人工智能通过优化决策机制、提升运营效能等方式重塑金融服务形态,并已经开始介入政府提供公共服务的过程。党和国家近年来高度重视人工智能在金融等各个领域的规范发展,“十五五”规划建议提出要“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则”。数据密集型的金融服务领域具备海量标准化数据优势,天然契合人工智能等前沿技术应用落地。由此,依赖直觉经验进行主观判断的传统金融决策模式,正逐步被基于海量数据分析和智能算法的客观决策机制所取代。但过度依赖人工智能技术也可能导致忽视其潜在技术内生风险和系统性风险,埋下风险隐患。
党的二十届三中全会提出“制定金融法”的工作任务,为金融法治建设指明了方向。当前,学界对人工智能一般性监管理论的研究主要聚焦于人工智能立法路径、人工智能侵权责任认定等,但对特定金融领域的研究则相对不足。其中,对金融科技风险的研究主要侧重于对智能投顾场景的分析,以及加密货币技术和智能合约等所涉及的风险防范,且多停留于特定业务场景分析,缺乏从宏观层面评估人工智能技术在金融领域的风险形态;对金融监管制度的研究则主要围绕金融监管数据利用、监管沙盒运行等议题展开探讨。虽然已有研究为数字金融时代金融监管制度创新提供了有益思路,但对金融人工智能应用监管的整体性思考尚显不足,未能充分揭示金融领域人工智能应用的风险特征与监管理念转型、制度机制创新之间的内在逻辑,难以有效回应如何在法律框架内有效识别金融人工智能的多维风险谱系,以及如何构建具有适应性和前瞻性的监管机制等维护金融市场稳定运行的现实问题。对此,本文将从金融领域人工智能应用风险考察入手,系统分析金融人工智能应用面临的多维风险形态,并探讨与之相适应的制度安排与监管逻辑。
二、金融领域人工智能应用的风险
(一)加剧并放大系统性风险
人工智能技术在金融领域的应用,主要通过算法同质化、网络互联性增强以及对第三方模型的集中依赖等实现,在这一过程中易产生系统性风险,其原因有三:一是出于成本控制与效率提升的考量,金融机构在经营中倾向于采用相似的人工智能模型与数据源,导致在交易执行、信贷风险评估、保险定价等决策过程中的决策逻辑和结果,具有明显的同构性。这种内生的市场相关性不仅会强化金融系统的脆弱性,更可能催生潜在的系统性金融风险,加剧市场波动幅度。二是技术应用在客观上会强化机构与市场间的连接,形成高度互联互通的网络结构,各市场主体既是风险传递者又是风险接受者,打破了传统风险隔离的边界。三是对少数大型模型提供商的依赖,滋生了“模型从众”的行业生态,加剧了风险判断的集中与同质化。
上述原因的共同作用,会在以下三个层面放大风险效应。其一,市场顺周期性强化与波动同步性上升。决策同构性易导致资产价格波动趋同,削弱市场内在缓冲能力。当多数机构依据相似模型进行决策时,单一外部冲击可能被迅速传导并放大,致使模型引发的系统性金融风险不仅在不同经济主体之间扩散,甚至提升如闪电崩盘等极端事件的发生概率。其二,“模型从众”引发系统性脆弱,模型风险管理不足与可解释性欠缺,可能放大同质化评估的缺陷。一旦共同依赖的底层算法存在缺陷或遭受攻击,风险将不再局限于单一机构,而可能引发采用相似架构的系统出现广泛的功能障碍,导致风险快速溢出至整个市场网络。其三,风险传染加速、复杂化与跨域扩散。网络互联性显著压缩了风险传播的时空阈值,使风险呈现跨区域、跨市场、跨业务的复杂传染特征。各主体同时作为风险传递者与接受者,可能使单一节点的波动通过非线性路径扩散至整个金融领域。传统监管框架在面对此类由技术内生的、自适应系统衍生的复杂风险传导时,往往会面临识别与应对的效率挑战。
此外,人工智能技术还可被违法者恶意利用,通过深度伪造技术生成错误或虚假信息,再借助误导性宣传扩大虚假信息的传播范围,人为操纵市场情绪并影响股价波动,不但会扭曲交易价格并导致异常交易量,还可能引发诸如“闪电崩盘”等极端波动事件。而从数据及个人信息安全维度来看,尤其是科技公司使用含有知识产权的数据进行模型训练,则会引发数据安全保护不力而导致金融消费者高价值信息泄露的风险。
(二)引发决策错误
“决策错误”主要指模型因数据缺陷或逻辑偏差,输出与金融现实不符或与预期目标相悖的分析结果、风险评估或交易指令,进而可能引发误判、损失或系统性风险。有效训练数据不足是导致模型决策基础薄弱的核心原因,主要表现为数据规模的有限性和数据适用性偏低。尽管金融数据总量庞大,但适用于数据密集型机器学习,尤其是深度学习的时序数据规模相对不足。相较于英文语料,高质量中文金融语料及开源数据集规模明显偏小,难以支撑复杂模型的充分训练。尤其是数据适用性偏低,符合特定金融场景训练要求的有效数据占比较低,模型难以从中学习到稳健的普遍规律。这直接导致模型性能下降、泛化能力弱,在面对复杂或未知金融情境时,易产生错误决策或无法有效识别潜在风险。
数据污染是引发模型决策系统性偏差的关键因素。比如“毒性”训练数据污染会让虚假交易记录、错误财务信息等不良数据混入训练集,直接误导模型学习;再比如网络行为、消费记录等替代数据虽能弥补传统数据的不足,但其存在的包括“噪声”、缺失值与不准确信息等固有缺陷则难以完全避免,致使模型决策逻辑被污染数据所扭曲,输出结果存在固有偏差,或产生不具备普遍适用性的错误模式。除数据污染外,数据时效滞后也是削弱模型环境适应性的重要原因。
(三)导致个人数据信息泄露
金融人工智能系统的搭建和运行过程中形成的数据聚集现象,成为数据及个人信息泄露的主要风险源。该风险源的形成主要通过两个路径:其一,基于合规义务的信息强制收集。为了预防洗钱和恐怖融资活动以及履行“了解你的客户”的义务,金融机构需要收集大量个人金融信息,必然会使其成为海量个人信息的合法占有主体。其二,基于服务优化的信息提供。金融消费者为获取更精准和个性化的智能客服、智能投顾、交易预测和投资组合管理等金融人工智能服务,会主动将自身财务状况、资产配置等敏感信息上传至人工智能系统,从而会进一步强化金融人工智能系统对个人金融信息的集聚,并在金融人工智能技术的运行过程中形成信息泄露的风险敞口。此外,恶意攻击者通过新型工具与手段直接入侵人工智能算法训练获取金融数据,也会导致个人数据信息泄露。
需要注意的是,金融消费者在与生成式人工智能交互过程中上传的数据会被模型存储并用于参数更新,其中也具有数据泄露的潜在风险。研究表明,机器学习算法生成的模型在训练数据时,其模型结构或可观测行为可能导致训练集中的个人敏感信息泄露。这通常是因为模型对数据的过度拟合,导致算法不仅学习了通用规律,还“记忆”了特定个体的隐私细节。例如,亚马逊公司就曾发现ChatGPT的生成内容与其公司商业机密信息高度相似,为防止员工的输入可能会被 ChatGPT用作进一步迭代的训练数据,亚马逊禁止其员工向 ChatGPT输入公司的机密信息。
(四)技术伦理失调
技术伦理失调,是指在金融人工智能的应用过程中,因技术固有缺陷或人为因素导致其决策过程或结果违背公平、透明、可信等伦理准则,进而引发歧视、欺诈、信任缺失等一系列问题。这主要源自偏见歧视和“幻觉”。金融人工智能模型所使用的训练数据和算法都可能会导致模型产生歧视性结果。 一方面是在模型训练数据的场景下,带有历史偏差或社会偏见的金融人工智能模型,其偏差来源主要是训练数据的选择、标注、社会及样本等存在的偏见。尤其是开发者的价值偏好、认知局限、先验常识等主观因素,不可避免地会内嵌到人工智能系统的底层逻辑搭建中。另一方面,金融训练数据的完整性不足以及模型推理泛化能力较弱,也是诱发幻觉的主要原因。若训练数据不完整,生成内容时由于推理路径不完善,模型为弥补知识或上下文空白会生成不符合实际的虚构内容,最终导致输出事实错误。推理泛化能力不足,还会引发模型过度拟合问题。
技术伦理失调主要会导致以下三类金融风险。一是歧视性决策。即使金融人工智能模型未直接收集种族、宗教、性别等敏感信息,人工智能及机器学习算法仍可能通过地理位置或其他个人特征间接关联到这些具有敏感属性的信息。经济水平、性别差异、年龄阶段等都可能成为算法歧视的触发因素,造成获取金融机会的群体差异性,最终会破坏金融市场的稳定性并制约经济发展潜力。二是深度伪造风险。此类风险既包括恶意利用技术实施诈骗的外部风险,也包括模型自身幻觉生成虚假信息的内生风险。此类虚假信息的逼真度、多样性及其信息裂变速率,会进一步加剧金融市场风险的不确定性与波动性。三是由模型“黑箱”特性引发的监管与信任难题。模型不可解释性意味着金融消费者仅能获取最终决策结果,而无法了解金融决策做出的原因、过程及依据,致使金融消费者在决策透明度缺乏的前提下难以形成理性行为。从金融机构视角来看,采用人工智能模型进行决策的金融机构同样难以提供清晰、可理解的决策结果的原因阐释,不但影响其自身的决策质量,还可能削弱金融消费者对其的信任基础。这会导致金融机构难以落实其负有的信息透明合规义务,同时还可能引起金融消费者的“算法厌恶”情绪,加剧金融科技应用的信任赤字问题。
(五)资源集中引发竞争风险
金融人工智能领域因关键资源集中、商业模式整合及技术特性,会引发市场结构失衡与潜在竞争抑制风险。数据作为金融人工智能模型训练的核心要素呈现出一定的稀缺性特点,对数据训练质量与规模的控制程度会直接影响潜在竞争者的市场准入门槛。随着模型性能与专业性要求的提升,大型金融科技企业依托其技术优势、议价能力及网络溢出效应不断拓宽其消费群体和业务边界,并由此累积了海量个人信息和金融交易数据。人工智能模型搭建主要涉及三类成本:基础模型预训练的高昂固定成本、针对特定用途进行基础模型微调的额外成本,以及基础模型运行时较低的变动成本。科技企业会试图通过纵向整合和横向战略协同等方式,降低模型开发和训练过程中的高额成本,进一步巩固其市场优势,抑制潜在竞争对手进入市场的能力。
竞争风险具体表现为市场竞争格局的扭曲与新型垄断行为的出现。其一,通过纵向整合和行业战略协同进行竞争排挤,降低潜在竞争者进入市场的可能性。其二,模型所使用的算法技术亦会催生竞争风险。大型金融科技企业掌握海量优质数据、先进算法与强大算力,从而可在激烈的市场竞争中获取更多资源,呈现出“赢者通吃”的市场格局。这不仅会增加市场集中度,更可能衍生出以算法为主导的垄断行为。此类算法驱动的垄断行为超出了传统垄断模式的边界,在金融人工智能模型高度智能化和自适应条件下,其主要表现为以隐蔽方式实施算法共谋、限制竞争的自我优待与拒绝访问,以及借助算法资源滥用市场支配地位等。
三、金融领域人工智能监管的策略检视与反思
人工智能技术在金融领域的深度应用引发的数据安全风险及系统性金融风险扩散等问题,不仅威胁金融市场的稳定性,还会损害金融消费者合法权益并侵蚀市场信任机制。目前,我国对通用人工智能的法律规制仍处于初步探索阶段,主要依赖人工智能服务、算法推荐相关的部门规章,以及部分金融行业标准进行行为规范。这虽为金融领域人工智能应用提供了初步指引,但尚未形成系统化、层级化的立法架构,在法律效力层级及监管效能等方面还存在制度的局限性。鉴此,构建科学合理的金融领域人工智能监管应对体系,首先应明确金融领域人工智能应用的监管策略,以此作为后续具体监管制度设计的制度基础。
(一)金融领域人工智能应用的监管策略检视
目前,在人工智能相关政策和法律制定方面,至少有44个国家发布了人工智能战略,超过30个国家通过了明确涉及人工智能的规范性文件。各国立法在监管思路上存在一定差异:欧盟、美国等国家和地区特别制定了金融领域人工智能监管规则或标准,英国、日本等国家更倾向于将金融人工智能监管纳入现有的监管框架,而新加坡等国家则采用非约束性的指导政策来规范金融人工智能的发展。综合分析上述三种对金融人工智能的监管策略,其出发点大致可归纳为人权保障、技术标准、风险分类及敏捷治理等四个维度。大部分国家的监管策略都基于四个维度的组合使用。
1.加强伦理与人权保障
各国人工智能监管与国际合作框架中,大都嵌入了以人权保障和伦理价值为核心的监管理念,旨在确保人工智能系统在设计、开发与应用过程中符合伦理规范,避免在信用评估、投资决策等金融应用场景中产生偏见、不公平等问题。例如,欧盟2019年发布的《可信人工智能伦理指南》(Ethics Guidelines for Trustworthy Artifcial Intelligence)将“值得信赖的人工智能”界定为合法、道德、稳健、公平、透明等七项基本原则;联合国教科文组织2021年发布的《人工智能伦理问题建议书》亦强调人工智能系统在生命周期的各环节,都应基于人权、基本自由、尊严及关于道义和伦理的思考;美国于2023年发布《关于安全、可靠、可信赖地开发和使用人工智能》(Executive Order on Safe, Secure, and Trustworthy Development and Use of Artifcial Intelligence)行政令第二节则提出了安全可靠、保障权利、隐私保护等伦理要求。我国国务院办公厅于2022年印发的《关于加强科技伦理治理的意见》,同样提出了科技伦理原则和科技伦理要求。此外,秘鲁、巴西以及哥伦比亚等国家也在其相关规范中明确人工智能应当具有安全、透明、公平等多项伦理准则。
2.制定技术标准
制定技术标准的监管策略旨在将部分监管权力赋予专业标准化机构,由标准制定机构依据其专业技术判断和专家共识,对人工智能系统全生命周期发展进行规范性引导和约束。技术标准的实施可以推动金融人工智能模型的应用监管由被动响应转向主动合规。通过明确风险识别、模型验证与信息披露等核心监管环节的技术要求,可为监管机构提供客观、科学的技术依据,从而增强金融监管的精准性和前瞻性。例如,欧盟《人工智能法》的第40条规定,符合技术标准的高风险人工智能系统或通用人工智能模型,可以享有合规的推定权利;美国加州参议院第53号法案《前沿人工智能透明度法案》第22757.12.(a)(1)条要求,模型开发者需制定、实施并公开其“前沿AI框架”,并需将国家标准、国际标准纳入其中,以便审查其是否将技术标准整合进模型设计与运行中。同样,我国也在加紧制定聚焦算法披露、模型风险管理、系统技术要求等方面人工智能在金融领域应用的行业标准。比如中国人民银行于2023年11月发布《人工智能算法金融应用信息披露指南》,明确了金融机构使用人工智能算法开展金融产品和服务时应予披露的信息内容;在团体标准方面,中国互联网协会于2023年6月12日发布《人工智能模型风险管理能力成熟度模型》以明确人工智能模型风险管理目标、框架及能力。
3.风险分级分类
风险分级分类的监管策略旨在通过对人工智能系统潜在风险进行分类分层评估,建立差异化和合比例性的监管措施,使人工智能风险程度与监管强度相匹配。欧盟《人工智能法》是风险分级分类监管策略的典型应用。其根据风险接受度将人工智能划分为不可接受风险的人工智能、高风险人工智能、有限风险人工智能及最低风险人工智能。其中,涉及金融领域的高风险人工智能在附件三中涉及两类。一是附件三第5条(b)中规定,用于评估自然人信用状况或建立其信用评分的人工智能系统,但检测金融欺诈的人工智能系统除外;二是第5条(c)规定的在生命和健康保险领域中,用于风险评估和定价的人工智能系统。根据该法规定,金融机构在向客户提供上述两类高风险人工智能服务时,应履行报告、风险评估、使用记录存储、告知及实施人工监督等义务。同样,美国国家标准与技术研究所(NIST)于2024年7月发布的《生成式人工智能风险管理框架》(NISTAI 600-1)给出的管理生成式人工智能风险的建议要求,基于风险分类分级的差异化监管路径能够优化监管资源配置效率与针对性,并根据不同应用场景的风险等级构建相应的监管强度梯度,在有限的监管资源下对高风险领域予以更多的关注和审查。具体而言,对于支付结算等相对简单、确定性较高的自动化流程,可以采取相对宽松的监管策略;而在信用评估、交易决策等高风险应用场景,则需建立更为严格的事前审批与事中监测机制。需要注意的是,金融人工智能技术的快速迭代使风险识别与分类也呈现出不确定性,加之各司法管辖区在风险内涵与外延认知上的差异,金融人工智能风险监管难度和复杂度激增。
4.敏捷和测试
敏捷和测试的监管策略以监管沙盒等试验性治理工具为典型,旨在以灵活性、试验性、迭代性的方法推动监管机制的完善与技术的审慎应用,能够为金融人工智能系统开发和试验提供受控且灵活的测试环境。比如欧盟《人工智能法》第57—59条规定了人工智能监管沙盒框架,允许人工智能应用投入市场前在特定监管环境中开发、训练、验证和测试。欧盟2025年12月2日发布的《建立人工智能监管沙盒实施条例》(草案)中,明确了进入与退出沙盒的资格、条件和计划。其第3条规定,公共或私人人工智能服务提供者可以对尚未投放市场的模型提出入盒申请,主管机关需从入盒必要性、价值性、合规性、成熟度、创新性等五个维度来评估其是否具备入盒条件。挪威数据保护机构(DPA)推出的“负责任的人工智能沙盒”,也从数据保护角度提出了符合伦理和负责任的人工智能治理方案。
人工智能监管沙盒制度的设立,可以使金融科技初创企业在受到适度监管的前提下进行技术测试和产品迭代。从监管逻辑来看,人工智能监管沙盒的本质体现在以下两方面:其一,通过建构灵活的“试错-调整”动态监管机制,缓解传统一刀切式的监管模式对技术创新的抑制效应。其二,消解监管部门与金融科技企业间的认知区隔,提升监管部门对金融人工智能系统潜在风险的精准识别与及时预警能力。不过,目前世界范围内监管沙盒的准入、退出机制及审核流程等方面缺乏统一标准,且在缺乏长期追踪与实证研究的情况下,对沙盒策略能否持续性地实现保障金融市场稳定与金融消费者权益保护等目标也存在质疑,如果措施不当,也可能因监管机构难以准确洞察金融消费者多样化的保护需求而导致沙盒成为监管盲区。以英国监管沙盒实践为例,明确仍存在测试企业融资渠道受限、审核评估周期冗长、退出机制不完善等现实问题。
(二)对金融领域人工智能监管策略局限的反思
1.制度规则存在结构性不对称
我国金融领域人工智能监管在面对高速迭代的金融人工智能技术时呈现双重困境:一是难以将宏观性原则规范有效转化为微观层面的具体行为指引;二是缺乏与技术、市场共同演进的动态制度安排。这一制度性困境不仅体现为执行环节的滞后与低效,也反映出面对新兴技术情境时刚性监管逻辑的僵化。
从金融人工智能系统对抽象规范概念的“理解力”来看,人工智能难以准确“理解”和把握“保持金融稳定、最小化系统性风险、推动经济长期增长”等高度抽象的目标概念,以及“公平、正义、平等”等伦理价值观念的本质内涵。即便是具有固定目标的算法系统,在高度复杂的金融市场环境中,也极易产生非预期性行为。这种“未知的未知”,本质上构成了金融监管领域的根本性信任危机。
从规则可执行性来看,以伦理、人权为基础的监管原则多停留于抽象层面,缺乏可操作的细化标准。其一,监管部门、金融机构、科技企业及金融消费者等不同利益相关者,对公平、透明、可解释等金融人工智能伦理准则的理解和诉求存在差异。如《欧盟通用人工智能实践准则》(The General Purpose AI Code of Practice)(以下简称“《实践准则》”)就是由于利益相关方对准则范围和可执行性存在分歧而被延期发布。其二,这些原则性规范普遍缺乏具体、可量化的执行指标,立法语言的抽象和模糊削弱了技术标准的转化与执行。如欧盟委员会已经要求欧洲标准化委员会和欧洲电工标准化委员会将透明、稳健、公平等基本原则细化为可操作的协调标准(harmonised standards),并在上述《实践准则》中试图阐明《人工智能法》规定的透明度义务,但就其附件三涵盖的高风险人工智能服务而言,其提出的合规路径仍存在诸多不确定之处,在履行义务时难以操作。
从规则动态适应性来看,传统金融监管策略是建立在相对稳定的技术与市场环境之上的,不足以有效且及时地响应人工智能的快速迭代和应用场景的瞬息万变。例如,技术标准的制定,参考的是既有的金融人工智能模型,但当标准正式发布时,金融市场可能已经涌现出更为先进和复杂的金融人工智能产品,使标准的适用性减弱。而人工智能风险监管策略也可能因风险分类、分级标准滞后于技术发展速率,造成高风险领域的监管真空或低风险领域的过度干预。法律规范的审慎制定进程与稳健追求,必然会导致规则更新周期与市场实践变迁之间形成错位。
2.事后惩戒机制的滞后性缺陷
我国金融业目前“分业经营、分业监管”的格局,使得金融科技监管呈现出多元主体与多重标准并存的治理形态。在此框架下,金融监管部门之间及央地关系层面存在规制组织分散化与权责分配模糊的问题,在应对金融人工智能系统的复合型风险时,往往会面临资源整合与统一调度协调的挑战。这种由分业监管带来的协调不足,进一步为企业寻求“择地经营”提供了空间,可能形成事后监管的薄弱环节。此外,鉴于对初期风险进行有效识别与干预通常面临实际困难,风险因素往往会在系统内部积累并逐步演化,进而增加潜在风险跨域传导与蔓延的可能性。在特定情形下,还可能导致风险的集中释放。在高频交易与智能投顾策略紧密互动的场景中,若累积的决策偏差达到临界阈值,而前置管控机制未能充分发挥作用,则会显著加剧风险扩散与市场失稳的风险。
当前,金融人工智能监管在整体协同、前置介入上的结构性短板,不仅使风险应对陷入被动,更难以从源头上捕捉控制风险的良机。事后监管机制难以适应金融人工智能生态的多层级、多主体和跨区域特征,导致监管视野被局限于单一维度,忽视在系统设计与模型训练的前置阶段嵌入合规要求的重要性,难以构建具有整体性和前瞻性的金融人工智能治理框架。
3.协同治理的制度性掣肘
金融领域人工智能的监管不仅是监管部门与金融机构之间的双边互动,而且技术研发者、数据提供者、消费者权益组织以及行业自律团体等多元利益主体也被广泛嵌入监管活动中。然而,当前的监管体系中,多元主体间的利益诉求和价值取向仍然存在差异,制约了多元利益相关方协同治理的实际效果。
一方面,从多元主体价值取向、风险偏好及利益诉求维度考察,技术研发者通常追求金融科技创新,聚焦于人工智能系统的准确性,以确保其商业利益不受损害;监管机构则秉持审慎、安全、稳健的治理逻辑,需在技术发展与消费者保护和风险防控间寻求平衡,通过制定规范性文件来应对金融人工智能的潜在风险;而金融消费者与社会组织则更关注伦理边界与个体权益保障,强调人工智能算法决策的公平与透明。由此可见,不同利益主体在制度安排上各自有其自身的价值倾向。
另一方面,标准化制定过程中的利益失衡更为突出。不同主体在人工智能技术发展、市场风险认知与合规标准理解上存在一定的信息不对称性。其中,监管机构难以全面把握前沿技术迭代,而金融消费者与社会组织的信息获取渠道相对有限;相对而言,人工智能服务提供者在标准制定时则处于相对优势地位。这种非对称性认知结构以及协同治理制度保障机制的欠缺,使得在金融人工智能标准化进程中,不同利益群体间难以形成有效沟通进而形成共识。
四、金融领域人工智能应用的三重监管应对
自动驾驶技术的革命性突破与道路交通法规和安全标准的滞后性监管之间的错位表明,法律在回应自动驾驶汽车的网络安全及数据安全保障、责任归属等问题上能力不足。这是因为,科技发展、监管理念、规范模式之间存在相互影响,导致其中任一因素的变革都会引发其余两者的相应调整与动态转型。传统金融监管模式在应对人工智能技术时也面临同样的窘境,不可避免地会陷入科林格里奇困境,致使监管失效。为实现人工智能技术在金融领域的良性发展与有效应用,首要任务在于重塑对金融人工智能应用的监管理念与应对策略。基于人工智能系统的专业性与复杂性,金融监管理念需从静态、刚性向动态、弹性转变,监管策略也应从事后监管、单一监管向事前规制与协同监管转变。
(一)注重监管时序的预防性:由单一事后惩处转向重视事前规制
传统金融监管活动通常在违法行为发生后再采取相应的惩处措施,即针对已暴露的现实问题制定特定的行为规范,并对违反者施以行政处罚或者刑事追责。这一模式的优势在于,能够针对具体违法违规行为制定精准的行为规范。随着人工智能的持续快速演进及潜在的颠覆性进展,一方面,数字化社会的开放性和不确定性导致传统后置型监管机制降效失灵;另一方面,依赖于信息完备的传统静态治理机制在应对复杂且难以预测的人工智能时难以保持其适应性和完备性,无法对金融人工智能应用场景形成有效回应。正因如此,法律调控应由“如何修复和恢复社会”转向“如何规训和塑造社会”,赋权与救济模式应转向责任与义务的施加与规制模式,即转向事前对行为的规训与塑造,以及对不法与违法行为的阻却。重视事前规制意味着法律介入社会关系的“关口”前移。从时间维度上看,事前规制的核心在于规制的时间点,即在人工智能引发金融风险造成损害结果之前,采取措施干预相关活动。从目的导向上看,事前规制更注重风险研判与源头治理,将损害消弭于萌芽状态。具体路径可以从建立风险监测与预警机制、开展合规审计及明确各主体义务等方面展开,将法律调控的重心由事后惩治转向事前预防。
首先,明确金融人工智能模型提供者、系统提供者、系统部署者等人工智能链条主体的义务。从数字时代法律样态来看,法律的算法化运行样态使得法律制度的基本面貌呈现出权利和义务先设机制的建立。从立法成本和法律效果来看,事前塑造金融消费者在数字环境中权利保障机制,阻却人工智能系统对其侵害,要优于事后补救模式。因此,应明确金融领域人工智能应用全链条主体之间的权利义务关系,构建金融消费者权利保障的先设机制。具体而言,应确立分类分级的主体义务清单:对模型提供者,强制要求其履行训练数据的合法性审查、算法公平性评估及模型风险披露义务;对系统部署者则要求其承担持续监控、算法审计与人工干预责任,并在其未尽审慎义务时适用过错推定原则进行处理。立法中须引入“合规抗辩”机制,即主体若能证明其已遵循国家强制标准并实施合规内控,可相应减轻或免除其行政责任,以此激励主动合规。通用立法在风险界定和跨行业协调方面具备较高的适应性和互补性,因此无需针对金融领域特别制定法律。可以由金融监管部门以部门规章、规范性文件进行规定,形成以《金融法》及相关下位法为组成的金融人工智能监管法律体系。
其次,建立金融人工智能安全风险监测与预警机制。对影响金融消费者权益的风险进行精准监测、精细评估、精确预警,是对风险进行监管和对权益进行预防性保护的前提条件。建议金融监管部门考虑设立“金融人工智能风险监测平台”,对接金融机构核心算法系统,推行强制性的算法备案与动态报送制度。不同于传统的金融指标监控,平台应聚焦于模型偏差系数、数据溯源记录、异常决策频率等人工智能特定风险维度,并设定风险阈值自动触发预警。同时,可探索执法和解制度,对于主动报告并修正算法缺陷的机构,可减轻处罚,以督促企业自我纠偏。
最后,建立金融领域人工智能系统进入市场大规模部署前的合规审计机制。我国已出台《生成式人工智能服务管理暂行办法》《网络安全技术 人工智能生成合成内容标识方法》等多部人工智能相关法律规范和技术标准,金融机构应当依据上述法规对其所使用的模型进行合规审查,从技术合规、数据合规、流程合规、伦理合规等维度识别潜在的法律和道德风险,以进一步保障模型决策结果公平、真实。
(二)加强监管空间的适应性:监管规则内嵌于模型设计
金融领域人工智能系统的构造超出以往知识技术工具的简单迭代,技术渗透致使传统法律对主体、客体、法律关系的固化设定失效,线性监管逻辑和技术中立论也逐渐瓦解。技术不再是悬置于社会生活之外的中立概念,而是内嵌于社会机构、文化形态与伦理价值等多维要素的抽象建构,具有价值依存特征。程序代码作为网络技术的具象化表达,其本质是人机交互的产物,人的主观意志仍是决定代码内容的关键变量。法律规则虽然无法从自然规律层面直接作用于技术本身,但可以通过规范人的行为来间接塑造技术的具体展现形态。
在这一背景下,监管框架不应沦为技术发展的被动跟随者,而应积极主动引导金融人工智能系统的风险自我评估与调适,在保障权利的同时促进科技创新,将法律规则及伦理内嵌于技术发展进程中,通过加强监管空间的适应性来规制金融领域人工智能发展。要将伦理准则与合规要求嵌入人工智能系统的程序代码中,将合规性、合法性、合理性作为金融人工智能系统设计、开发与应用的基础性编译要求,从而使金融人工智能系统具备内生合规性与合理性逻辑结构。要将金融领域人工智能“设计即监管(Design for Regulation)”理念转换为实际监管路径,为监管奠定一个完善的金融伦理框架,并动态调适伦理准则以适应技术发展,同时通过提高技术开发者的法律素养与伦理意识来推动设计理念的落地。
首先,建立作为规范基础的金融科技伦理框架。为规范金融人工智能系统的设计与开发应先行制定规范指引,并在指引中以确保算法透明度、隐私安全与人权保护等基本科技伦理为基础,融入金融伦理精神。这方面一些国际经验值得借鉴。例如,欧盟委员会发布的《值得信赖的人工智能伦理指南》就提出人工智能开发、部署和应用需符合尊重人的自主性、预防伤害、公平和可解释性四项伦理原则;全球首个负责任使用人工智能的国际条约《人工智能与人权、民主和法治框架公约》则将其归纳为个人尊严及自主、平等和不歧视、尊重隐私和个人数据保护、透明度和监督、问责制、可靠性以及安全创新七项基本原则。鉴此,我国在《金融法》的立法中,也需充分回应金融领域人工智能等新兴科技的影响。在遵循《个人信息保护法》《数据安全法》《网络安全法》等一般法关于个人信息处理、数据分类分级保护等基本要求的基础上,《金融法》应从金融市场公平、金融稳定、诚信信用等原则出发构建金融科技伦理框架,形成从一般到特殊、从基础到应用的金融科技监管理念。具体而言,在《金融法》中以设立专章或专条的形式,制定具有统合性和原则性的法律条文来规制新兴科技在金融领域的应用,明确“技术向善”的价值导向,以及人工智能等技术应用于金融服务的基本监管原则和法律责任配置;同时,还需明确风险识别、信用评估、投资决策等核心业务中人工智能应用的法律标准,将个人数据概念纳入群体保护理念,确立公共利益目的限制原则,推动人工智能技术服务于金融消费者权益保障、金融市场稳定性以及公平性和普惠性目标。
其次,持续优化金融科技伦理框架的动态调适机制。“设计即监管”的实效性取决于技术能否准确转译法律及伦理要求,而鉴于法律文本及其解释往往会随着社会关系的演进而变迁,系统设计及其运行的合规性应与时俱进,构建能够持续优化和完善金融科技伦理框架的动态调适机制。例如,基于法律法规变化、技术和市场实践的发展,调整人工智能系统嵌入的伦理要求;通过引入合规性检查等工具,在模型训练时自动验证是否符合伦理框架和行业标准;开发与人工智能技术发展相适应的技术监测手段,监测金融人工智能系统的实时运行状态,并根据监测结果与反馈,定期更新和调整系统合规参数,以实现动态调适。
最后,加强技术开发者的金融法律素养与伦理意识培育。技术开发者是将法律规范和伦理标准准确转译为编程语言的关键执行者,其专业能力和法律素养直接影响“设计及监管”的效果。鉴于法律理解与解释固有的主观性特征,应防范缺乏系统性法学训练的技术开发者将其对法律及伦理要求的片面理解固化于系统之中,避免设计者偏见对系统造成负面影响。为此,应通过法律培训与伦理教育提升技术人员对金融领域法律法规的理解能力,具体可通过成立专家咨询委员会为技术开发过程中的法律问题提供专业指导,提升技术人员的法律素养及伦理意识。
(三)提升监管主体的协同性:从二元格局到多元协同
面对人工智能引发的各类金融风险,金融监管机构可能会存在识别滞后、监管资源配置失衡、专业技术认知能力不足等问题,使其在快速迭代的数智化场域中监管效能弱化、监管行动迟缓,影响监管的时效性与适应性,甚至可能出现监管机构在风险事件爆发后采取过度管控的应激性政策。此外,传统监管策略中还存在一种认知误区,即将监管错误地视为国家为维护秩序和引导行为朝着期望的方向发展而强加给社会的某种“必要之恶”。这种简单的理解忽视了现代金融监管,尤其是金融领域人工智能监管的复杂性。金融领域人工智能监管的专业性和复杂性使单一监管主体难以独自应对多维度的监管挑战,因此,现代监管实践已经演化为去中心化、动态、多方共创的治理结构,而非纯粹的国家驱动型机制。而从金融消费者的个体视角看,个人知情权的实质性丧失会导致金融消费者的非理性决策,单纯强化知情权的制度设计,不但无法切实保护金融消费者的权益,反而可能被异化为规避法律调控的合法外衣。
面对复杂多变的社会经济系统,单一或二元主体的监管策略难以满足整体性治理需求,需要多元主体协同治理才能增强监管体系的韧性与适应性。随着社会力量的增长和市场主体治理权能的逐步深化,传统“政府权力-私人权利”的二元格局正在向包含政府权力、市场权力和私人权利的协同新格局演进。与之相应,人工智能监管动力机制也应从约束公权、保护私权的单向思维转向均衡协调。
面向共治格局的法治形态可从以下两方面展开。
其一,搭建多元利益主体沟通平台,形成由监管部门、技术专家、社会组织、研究机构和公众等多方主体共同参与的技术风险治理组织网络,监管部门和研究机构、消费者保护组织等利益相关主体定期进行人工智能监管反馈交流。同时,建立各利益相关方的沟通渠道,及时收集市场主体与消费者的意见,促进各方治理愿景的融合。鉴于法治引领在科技创新领域的重要性,应探索建立金融科技专业法庭,引入技术陪审员,审理涉及算法歧视、数据泄露等新型纠纷。为完善行政执法与刑事司法的衔接机制,对利用人工智能实施市场操纵、内幕交易等行为,应明确案件移送标准与证据转换规则,防止以罚代刑。
其二,明确多元协同监管中各主体的职责边界。对于监管机构,主要职责是顶层设计和统筹协调,研究确立金融人工智能核心政策和包容审慎性的监管原则,包括规则制定和监督执行等基础职能。对于金融人工智能服务提供者,应履行包括数据、模型设计合法审查及算法披露等义务,并主动接受监管机构的检查和社会监督。对于金融消费者,在拥有知情权、选择权等基本权利的同时,也需承担金融人工智能服务使用者合理使用金融服务、配合风险防控措施等义务,并遵循人工智能伦理准则。对于行业协会、自律组织、专家智库等主体,主要承担进行合规培训、组织行业交流、提出政策建议和提供前瞻性研究支持等职责。
五、结语
金融领域人工智能的深度融合,既提升了金融服务效率与体验,也形成了复杂多维的风险结构。本文通过分析人工智能在金融应用中存在的各类风险,揭示了既有的金融监管体系在应对高度自主、快速迭代、跨域传导的人工智能风险时,因监管规则的抽象性、执行滞后性及多元主体协同的缺失导致其回应能力不足的结构性成因。
面对这一挑战,应深化金融监管理念并进行应对策略转型。其一,在监管时序上,应从被动回应转向主动预防,将法律调控的关口前移,实现从“修复社会”到“塑造行为”的治理逻辑转变。其二,在监管空间上,应超越“技术中立”的传统认知,推动“设计即监管”原则的落地实施,实现法律价值对技术路径的引导与规制。其三,在监管主体上,须突破“监管-被监管”的二元格局,构建政府主导、行业自律、企业负责、公众参与的多维协同治理框架,提升监管体系的适应性与公信力。
金融人工智能的治理绝非仅是技术规范与金融法规的叠加,而是需要在法治框架下展开深层次的系统性制度的调适。未来的《金融法》及配套监管体系,应以“技术向善”为导向,统筹安全与发展、创新与稳定、效率与公平等多重目标,在专章或专门条款中明确人工智能应用的基本规则、主体责任与问责机制。总之,人工智能时代金融监管的核心,在于构建一个前瞻预防、规则内嵌、多元协同的高水平现代化的科学治理体系,在法治轨道上实现技术理性与制度理性的融合,以保障金融高质量发展。
【作者简介】
尚博文,法学博士,助理教授,对外经济贸易大学法学院、涉外法治研究院;邱山山,博士研究生,天津大学法学院。感谢匿名审稿人的意见,文责自负。