季卫东 赵泽睿:法律如何实现动态治理 —— 人工智能不确定性的立法应对

选择字号:   本文共阅读 2066 次 更新时间:2025-06-13 07:20

进入专题: 人工智能   动态治理  

季卫东 (进入专栏)   赵泽睿  

 

摘 要:人工智能的不确定性既是推动全球人工智能立法浪潮的共识性动因,也是引发各国立法实践森罗万象的分歧性诱因。欧盟、美国和日本分别形成强调政府监管的风险规制、侧重市场主导的行业自治与聚焦政企合作的软法引导三种立法模式。但三者均将法律当作政府执行静态治理观念的工具,由此产生政府或市场能自行应对人工智能不确定性的自负。我国的人工智能统一立法为克服单一主体以静制动的困境,并实现多元主体基于沟通的动态治理,应围绕风险对称的民主性沟通而非计划性监管来控制不确定性。对此,人工智能统一立法可以利用沟通程序的制度设计来督促政府消除市场中的风险不对称性,确保具体场景的多元利益相关者在风险对称的情况下通过风险沟通敏捷作出有可问责性的风险决策,以实现风险共担的动态治理。

 

随着以DeepSeek为代表的生成式人工智能的惊艳崛起与欧盟《人工智能法案》的正式通过,人工智能立法成为全球法学界的共同议题。我国虽然在2023年6月6日发布的《国务院2023年度立法工作计划》中明确将《人工智能法》列入立法规划,但目前仍存在较大争议,尤其是面对欧盟、美国和日本的不同立法模式,以及各国人工智能的发展现状与战略差异,我国如何制定一部符合中国国情且具有中国治理创见的《人工智能法》成为当前法学界亟需回答的问题。对此,现有研究主要有两个方向:一是在详尽介绍某个国家的立法特点或对比两个国家的立法经验基础上,为我国立法提供建议,如对欧盟《人工智能法案》的背景介绍与内容解析、对美国人工智能立法的现状澄清与比较等;二是着重强调我国人工智能立法所应当确立的独特价值与全新路径,如提出要在明确安全与发展的基本原则基础上通过部门法的立改废释来保持灵活性、注重根据现有立法基础来提炼总则并留出接口、兼具科技法与应用法双重定位等。前一类研究为了能够系统性地全面展现国外立法实践,大多以法律的体系性构建为视角,着重阐述立法背景、制度内容与立法框架,但其因聚焦于制度内容而难以揭示人工智能技术发展与立法应对之间的互动关系。后一类研究因着重突出具有我国本土特色的立法回应,难以对不同国家立法所共同试图回应的本质性问题进行提炼与总结。因此,本文试图在这两类研究的现有基础上,围绕人工智能不确定性这个核心问题,呈现技术发展规律与立法应对策略之间的互动关系,以法律如何应对人工智能的不确定性为主线,对比并反思欧盟、美国和日本三者的立法理念,并从风险沟通的多元共治视角为我国人工智能立法如何实现动态治理提供思路。

一、应对人工智能不确定性的全球共识与立法分歧

人工智能的不确定性既成为掀起全球人工智能立法浪潮的共识性动因,也成为导致各国立法实践森罗万象的分歧性诱因。如何以明确、静态、固定的法律制度来实现多元动态的人工智能风险治理,这成为各国立法实践的分歧之处。欧盟、美国和日本分别结合各自的情况与战略需求,形成强调政府监管下的风险规制、侧重市场主导下的行业自治和聚焦政企合作下的软法引导三种各具特色与创见的立法应对模式。

(一)针对人工智能不确定性的全球性共识

对于人工智能的不确定性,各国立法至少达成了如下三项基本共识:一是人工智能打破人类对技术的单向性支配关系,这使得人工智能伦理与立法具有不同于以往技术变革的时代独特性;二是人工智能风险的广泛性与复杂性使得其已经上升为各国政府需要积极响应的重大公共安全议题,这意味着人工智能立法具有推动人工智能风险治理的时代必要性;三是人工智能治理的多元性与敏捷性使得人工智能立法必须以相对“静止”的法律制度去协调多元治理主体间多样、差异的价值认知,并规范动态变化、场景丰富的实体性治理规则,这代表着人工智能立法需要充当技术风险动态与治理规则动态的连接轴与平衡点,具备“实现动态治理”的时代创新性。

首先,人工智能由于技术复杂性所引发的迭代路线不确定性成为颠覆人与技术之间单向支配关系的关键。随着数千万甚至数亿参数的深度学习模型成为当前人工智能的技术基石后,默认技术研发者对人工智能技术享有单向支配关系的透明度方案已被论证为一种不可行且无必要的妄想。一些学者将人工智能这种能脱离人类计划性支配、具备自主性的知识学习与内容创造特征称为“拟主体性”。这意味着人类与人工智能之间的关系将颠覆传统人类对技术的单向支配关系,人工智能技术的未来发展路线将无法被人类精准规划与完全支配。这种颠覆人类支配的技术发展不确定性让人工智能伦理备受各国政府与政府间机构的关注,并致使人工智能立法无法参照以往具有可规划性、可单向支配性技术的立法经验。为了应对此种技术不确定性所引发的人机关系变革,人工智能立法必须具备时代性与前瞻性特征。

其次,人工智能可能引发的未来不确定性损害使得人工智能的风险治理上升为全球公共话题。“风险”与“危险”均是具有不确定性的损害。但危险是一种不可归因于事前决策的不确定性损害,而风险则是那些可以通过合理决策来规避的不确定性损害。随着人工智能在社会各个领域的广泛应用,以往很多人类无法通过合理决策来规避的未来不确定性损害(危险)被转化为了可以被高效计算、决策与精准控制的未来不确定性损害(风险)。这意味着社会公众会期望人工智能的普遍应用能够带来更高程度的安全保障。因此,治理人工智能广泛应用后所引发的各类社会风险问题也就成为人工智能立法所必须具备的功能目标。

再有,人工智能的风险治理因主体多元性、价值多元性、场景利益多元性和目标需求多元性,会引发实体规则的不确定性,并造成人工智能统一立法在必要性与路径方面的争论与分歧。虽然各国均将人工智能列为推动社会数字化转型的国家战略并予以高度重视,但当前各国的人工智能立法已呈现出多种多样的态势。这是因为各国推动立法的基本国情、治理理念与战略目标有所差异。因此,人工智能立法在面对治理多元性与复杂性所引发的实体规则不确定性时,既需要符合本国国情与战略规划而具有独立自主性,也需要统筹涉外法治以加强国际话语权而具有平等包容性。在此,本文将以较具代表性的欧盟、美国和日本的人工智能立法实践为例,进一步梳理比较各国应对人工智能不确定性的治理经验与立法理念。

(二)强调政府监管来规制风险的欧盟立法理念

面对人工智能的不确定性问题,欧盟在2024年8月发布的全球首部人工智能统一立法——《欧洲人工智能法》中,试图赋予政府以横向的广泛监管权力来回应社会公众对人工智能的普遍安全需求。该项立法通过风险分级分类来减少风险治理所面临的规则不确定性,以分规模、分阶段的执行策略和“监管沙盒”机制来应对人工智能的技术发展不确定性。而面对国内市场需求和涉外法治需求,欧盟试图通过统一性的产品责任来统合分散的国内市场,并试图效仿数据治理立法利用“布鲁塞尔效应”来争夺人工智能立法的国际话语权。

首先,《欧洲人工智能法》为在实体治理规则的不确定性中创设确定性,设立风险分级分类框架。其将人工智能分为不可接受风险型、高风险型、特定风险型、通用风险型和低风险型五个类别,并根据风险程度递进式地设立相应的风险监管规则。针对不可接受风险型人工智能,如对自然人进行风险评估与犯罪预测、面部识别、在教育与工作场所的情绪识别、生物特征与隐私信息分类与识别等,该法第5条直接明令禁止其进入欧洲市场。针对高风险型人工智能,如对自然人健康、安全与基本权利可能造成显著损害、对决策可能造成影响、生成用户画像、作为关键基础设施领域等,该法第6条至第49条对其设立了严格的合规要求,包括风险管理义务、数据治理义务、人类监督和向政府机构披露相关信息并登记的透明度义务等。针对特定风险型人工智能,如直接与人交互式、内容生成式、情感与生物特征识别式和深度伪造式等,该法第50条设置了系统提供者和部署者的透明度义务。针对通用型人工智能,如系统性风险型人工智能,该法第51条至第56条,设置了国内授权代表运营制,要求提供者向政府披露相关信息、进行风险评估、设立欧盟内代表且还需获得授权后方能进入市场。

其次,《欧洲人工智能法》以分规模、分阶段执行和“监管沙盒”机制为手段来应对人工智能技术和应用的不确定性。为了鼓励创新、减少政府强监管给技术自由发展带来的阻碍,该法采取在监管对象规模上“抓大放小”、在监管时间阶段上“逐步落地”的举措。例如,该法第62条专门针对中小企业和初创企业,降低其合格性评估的费用。同时,该法通过监管措施的阶段性逐步落地,让人工智能企业有一个合规的时间预期来调整自己的技术路线和商业模式,以此回应人工智能产业所具有的技术发展不确定性。此外,该法第57条至第61条设置“监管沙盒”制度,试图通过控制应用范围来约束人工智能应用时所带来的复杂性风险。可以说,该法以规模、时间和空间三个维度的分类规划来缓解政府监管的僵硬性,为政府应对人工智能技术发展和社会应用的不确定性创造监管弹性。

再有,《欧洲人工智能法》通过设置统一性的产品责任来统筹内部市场需求与涉外法治需求。相较于美国和中国具有统一且流通性较好的大规模人工智能市场,欧盟的人工智能市场存在着各成员国自身的市场规模较小且各国间流通性较差的问题。因此,消除欧盟内各成员国之间的合规问责差异,形成一个统一的大规模欧盟市场,便是该法所需要满足的内部市场需求。对此,该法及2022年的《人工智能责任指令(草案)》建立了将人工智能视为一种产品进行统一问责的责任体系,此举有利于统合各成员国之间关于人工智能的问责差异,进而促进人工智能作为一种产品在欧盟境内的自由流通。此外,基于该法第2条的适用范围规定,只要产品投放到欧盟境内市场或这个产品的受影响者在欧盟境内,欧盟政府机构对于该人工智能就享有监管权,无论这个人工智能产品的提供者或经营场所是否在欧盟境内。这意味着基于产品责任的统一立法能有助于实现以提出符合欧盟价值的严格产品标准约束国外的人工智能产业发展,达成欧盟法律外部化和单边监管全球化的涉外法治意图。

(三)侧重市场主导下行业自治的美国立法路径

面对人工智能的不确定性问题,美国选择了由市场主导、促进行业自治的“轻触式”立法。对于人工智能的技术发展不确定性,美国选择相信市场能够自行作出最好的选择,政府的计划性干涉只会阻碍市场引导人工智能发展。因此,除国防安全领域外,美国对立法赋予政府监管权力干涉市场持非常保守的态度。而为了回应人工智能广泛应用后带来的风险担忧,美国目前更多是通过政府颁布的行政命令和由美国政府牵头、主导的国际公约来回应社会公众对人工智能的安全需求。对于人工智能风险治理的实体规则不确定性,美国选择以行业自治为主,仅对具有重大公共安全风险的应用场景进行有限且必有的监管,避免政府对市场的过度介入,由此形成场景性的分散立法。

首先,美国对于新兴科技的发展不确定性历来强调行业主导而非政府主导,相较于欧盟总是率先进行统一立法来加强政府监管,美国对于加强监管的统一立法更为谨慎,其更倾向于设立责任豁免来为市场创造更大的自由创新空间。在联邦层面,为保持美国自身在人工智能领域的领先地位,多项加强人工智能统一监管的综合性法案均未通过美国国会的投票。而在州立法层面上,目前针对人工智能的立法大多聚焦于维护市场秩序的消费者保护、反垄断和产品安全领域,一些立法对于受监管的人工智能还专门设立了责任豁免的风险管理义务。如已发布的《科罗拉多州人工智能法》和《前沿人工智能模型安全创新法案》,虽然看似参照欧盟制定了较为严格的监管措施,但两者均设立了专门的责任豁免条款,并且严格限制了政府的监管范围。前者仅适用于“涉及与人工智能系统交互的消费者保护”的人工智能,而后者仅适用于“运算能力大于10的26次方的人工智能模型”,以避免政府对市场主导的行业自治产生过度干涉。

其次,美国的“轻触式”立法倾向于认为不发展就是最大的风险。当然这种轻触式立法的风险治理思路并非完全性的放任自治,而是一种“区分新旧、从宽到严、渐进分散”的治理。“区分新旧”是指美国会通过设置责任豁免条款来避免新技术受到针对旧技术的既有监管框架阻碍;而“从宽到严”则是体现为逐步限缩满足豁免条款的门槛与要求,以此推动行业进行自治;“渐进分散”则是指针对分散场景的具体应用进行立法监管,并先从最具风险且规模最大的企业开始进行逐步监管。这种“区分新旧、从宽到严、渐进分散”的轻触式立法思路是为让政府能以最低程度的监管力度来满足社会公众的安全需求,并推动市场主导的行业自治。例如,奥巴马政府曾表态:人工智能的监管会逐步严格,随着技术的成熟,政府要做的并非将新技术强行纳入现有的监管框架,而是要确保监管反映了广泛的价值观。在2020年发布的《国家关键新兴技术战略》中,特朗普政府也宣称:市场导向的思路将使我们能够领先于那些抑制创新的政府主导模式。

再次,对于人工智能治理多元性引发的实体规则不确定性,美国倾向于用较为灵活的行政命令来满足国内治理需求,并以享有主导话语权的国际公约来统筹协调涉外法治需要。例如,为了满足国内公众对政府使用人工智能的安全需求,特朗普政府发布的第13960号行政命令《促进联邦政府使用值得信赖的人工智能》和拜登政府发布的第14110号行政命令《安全、可靠和值得信赖的开发和使用人工智能》,专门针对政府机构在刑事司法、教育、劳工等公共领域使用人工智能的行为制定了标准与规范。而面对涉外法治需求,美国虽然与欧盟有着完全不同的治理理念,但会联合西方价值观的国家签订人工智能治理的国际公约,以此加强自身的国际话语权。例如,2024年9月,由美国和欧盟主导、部分遵循西方价值观的国家参与的《欧洲委员会人工智能、人权、民主和法治框架公约》正式签署,该公约被称为历史上第一份具有法律约束力的人工智能国际条约,旨在确保人工智能系统的使用符合“人权、民主和法治”原则,只是对于“人权、民主和法治”原则的解释路径与执行标准完全由美国和欧盟自行主导解释。

(四)聚焦政企合作下软法引导的日本立法路径

面对欧盟与美国迥异的治理理念与立法思路,日本各取所长,采取了折中的治理与立法路径。这种折中性体现在如下方面:一是相较于欧盟主张政府统一监管、美国侧重市场主导自治,日本则聚焦于政企合作制定软法进行治理;二是相较于欧盟统一立法以赋予政府对人工智能市场的广泛监管权、美国立法限制政府监管范围并着重限制政府的人工智能使用,日本选择要求政府率先使用人工智能来联动市场发展;三是对于如何统筹协调国内治理需求与涉外法治需求,日本在国内层面参考欧盟进行统一性立法进行治理,而在国际层面则跟随美国积极参与双边和多边国际协议。

首先,日本对于人工智能的技术发展不确定性,既未选择由政府进行统一规划与集中控制,也未完全交由市场主导,而是一种政府引导、企业跟进的政企合作模式。在此模式下,日本政府的功能被称为“司令塔”,负责给出人工智能的大致发展方向与整体发展战略,然后再由具体政府机构引领企业共同进行具体的发展决策与举措。但需要注意到,日本政府作为“司令塔”仅起到大方向的引领,具体的发展决策与战略执行还是要依赖于官民合作。例如,2016年,安倍晋三提出要让日本政府成为AI技术研发领域的指挥中枢,统筹各部门下的科研法人机构与企业共同进行AI的研发合作,并在《第五期科学技术基本计划》明确了“官民共同进行研发投资达到GDP占比4%以上的目标,其中,日本政府必须确保政府研发投资额占GDP的1%,然后推动产业界据此引导民间企业研发投资额达到GDP的3%,从而强化官民合作共同推进科学技术创新”。

其次,日本对于人工智能风险中的不确定性,也对欧盟的政府横向监管模式与美国的市场主导自治模式进行了折中,采取了由软法指引统筹、政府设定目标、企业自主规范、多元主体参与的敏捷性监管模式。而日本实现这种敏捷监管的立法维度有两个:一是在主体维度上,通过软法让多元主体能够广泛参与人工智能的技术标准与监管规则的制定与执行;二是在时间维度上,要通过软法来持续性地应对人工智能风险的动态变化,以此克服法律的滞后性与政策的衰退性。以人工智能伦理风险为例,日本的人工智能伦理立法分为四个层级:(1)设定伦理目标的原则层:由内阁府根据日本的社会需求发布《以人为中心的人工智能社会原则》;(2)指明实现目标路径的规则层:由总务省、经济产业省等国家职能机关为了落实原则、帮助企业理解原则、鼓励企业自主进行伦理监管所制定的一系列人工智能伦理监管合规指南,如总务省发布的《人工智能开发指针》《人工智能利用指针》、经济产业省发布的《机器学习质量管理指南》《人工智能·数据利用合同指针》等;(3)引导企业自主规范的监督层:日本政府通过设置责任要求和激励政策来引导企业自主监管。如日本政府制定了公共采购优先制度、伦理审查和认证制度,以此将伦理自主审查与企业经济利益相挂钩,并每年会公开表彰伦理自主审查积极且审查结果优异的企业;(4)对违规行为追责的执法层:虽然日本的软法并不具有强制性,但为了政府能够鞭策企业进行自主监管与合规,法律也会赋予政府一些制裁手段,如会设置事后调查问责机制、建立违规企业曝光与黑名单制度等。

再次,日本面对人工智能治理的实体规则不确定性,在国内层面强调通过立法进行治理目标的设定,并为政企合作提供制度环境,在国际层面则是积极签订双边与多边国际协议。例如,针对国内治理需求,日本陆续发布了《数字程序法》《个人番号法》《促进公私数据利用基本法》《数字改革关联法》来鼓励政府注重数据的流通利用和官民共享、消除国内数字鸿沟、实现多元主体联动等。对于人工智能的涉外法治需求,日本会积极参加各类双边和多边协议来统筹协调各国治理法规的差异。如为了协调数据跨境流动时不同国家的差异性治理法规,日本深度参与了一系列全球数据治理协议,与他国先后签署了《日欧经济伙伴关系协定》《日美数字贸易协定》《亚太经合组织跨境隐私规则体系》《全面与进步跨太平洋伙伴关系协定》以及《区域全面经济伙伴关系协定》,在这些国际协议中,其一方面会提倡构建具有自身特色的治理框架,另一方面则会根据他国治理法规调整自身的治理机制以便达成治理合作。

二、法律在人工智能治理中的功能与定位反思

人工智能立法的核心问题在于需要明确的法律来应对人工智能的不确定性,以此在社会数字化转型的动态过程中为人们提供稳定预期与信任基石。然而,由于法律的明确性与人工智能的不确定性之间存在较大张力,各国对于如何以法律满足人工智能治理的多元性与敏捷性需求有着不同的观念。通过上述比较可知,引发各国立法模式产生分歧的核心在于如何理解政府与市场在人工智能治理中所应当起到的作用与所扮演的角色,这也产生了两种单一主体以静制动的自负。从法律与治理之间的关系来观察这两种以静制动的自负,实则两者均将法律当作排除不确定性并试图实现静态治理的工具。这并未让法律融入人工智能治理的全流程之中,导致其无法实现包容人工智能不确定性的动态治理。

(一)应对人工智能不确定性的各国立法经验总结

法律的公平提示原则要求“政府在依据一项法律规则要求其公民承担相应的法律责任之前,公民必须被告知并理解该法律规则”,此种原则作为法治文明发展的根基一直延续至今并发展为了法律的三项核心要求:(1)法律的公开发布要求;(2)法律的明确清晰要求;(3)公民对法律的理解认知要求。然而,当法律的公开、明确与可理解特性在面对人工智能的黑箱、不确定与复杂性特征时,必然会产生包容不确定性和平衡技术发展与治理规则之间动态性的立法需求。已有学者将此归纳为法律的深度不学习与人工智能的深度学习之间的冲突与张力,并论述了传统法律以简约、粗略的“大定律—小数据”斩断凝聚共识的沟通来简化社会复杂性的模式在面对人工智能时的功能危机。也有学者将这种针对技术不确定性的立法问题概括为法律的科林格里奇困境。对此,欧盟、美国与日本针对法律如何应对不确定性有着不同的立法思路与实践尝试。

首先,针对人工智能的技术发展不确定性,欧、美、日三国的人工智能立法虽然均强调要鼓励创新,但三者通过法律促进创新的方式截然不同。欧盟强调对政府监管的适度放宽来为人工智能的技术发展不确定性提供限定空间,如《欧洲人工智能法》分别在规模上的抓大放小、时间上的逐步落地和空间上的“监管沙盒”来为法律授权政府进行的横向监管提供应对技术发展不确定性的监管弹性。而美国强调市场会自行在人工智能的技术发展不确定性中作出最好选择,其对立法授权政府干涉市场机制持有非常保守的态度。如2024年9月美国加利福尼亚州否决了备受全球关注的《前沿人工智能模型安全与创新法案》,原因便是该法案对人工智能的开发规范与监管不足够灵活,会阻碍人工智能的创新空间,并给公众一种对这项快速发展的技术的虚假安全感。而日本一方面认为政府并无掌控人工智能技术发展的相关知识与能力,但另一方面也认为市场还是需要由政府来指引发展方向。因此,日本的人工智能立法侧重于确立发展目标与保障官民合作,由政府引导市场推动人工智能朝着特定目标进行技术创新,如日本的《AI战略》强调了日本政府作为指挥中枢——“司令塔”的作用,以及具体发展和战略执行必须依赖官民合作的观点。

其次,针对人工智能应用中的风险不确定性,欧、美、日也分别从不同的立法思路进行了治理实践。欧盟强调通过立法对人工智能风险进行分级分类,以此尽可能将风险中的不确定性确定为特定类别,方便政府采取适当的监管措施来应对相应的风险,如《欧洲人工智能法》将人工智能分为了五个类别,并根据风险程度递进式地设立了相应的风险监管规则。而美国的“轻触式”立法则倾向于认为不发展就是最大的风险,其对风险中的不确定性采取了以“区分新旧、从宽到严、渐进分散”的方式来推动市场形成行业自治。例如美国《科罗拉多州人工智能法》为人工智能企业的免责设立了专门的责任豁免条款。日本面对人工智能风险则采取了强调敏捷性的软法治理模式。其在主体维度上,通过软法让多元主体能够广泛参与人工智能的技术标准与监管规则的制定与执行,保障政府和企业能够积极参与人工智能的风险监管过程。其在时间维度上,通过软法的灵活性与动态发展性来持续性地应对动态变化的人工智能风险,以此克服法律的滞后性与政策的衰退性。

再次,针对人工智能治理中的实体规则不确定性,欧、美、日也分别以不同方式来统合多元、分散的实体性规则。对于国内分散的市场现状,欧盟选择通过立法设置统一性的产品责任来统合各成员国之间不同的问责机制,进而希望形成一个统一的大规模欧洲市场。对于国外差异性的涉外法治需求,欧盟秉持价值优越主义,试图通过符合西方价值观的严格监管立法,达成人工智能国际治理的“布鲁塞尔效应”,以此实现其单方监管的全球化构想。而美国则选择了内外有别、双重标准的霸权主义。其在国内层面,为了适应人工智能的动态变化,选择以较为灵活的行政命令针对必有领域进行有限规范,以最低程度干涉技术发展。但在涉外法治层面,美国则试图最大限度地通过立法与国际条约来扩张其司法管辖范围,无论是其拉拢部分国家签订的双边或区域治理协议还是其数据跨境立法的“长臂域外管辖”规则,都意图排斥他国多元的治理价值观。相较于欧洲和美国,日本则选择强调多元治理的重要性。其在国内层面通过立法设立符合国情的治理目标后,会为政府、企业与消费者共同实现治理目标提供法律支持与保障。其在涉外法治层面则是在积极参与各种双边协议与区域协议的情况下提出本国独特的治理观念,不断在与他国进行合作治理磋商中调整自身治理规则并影响他国治理规则来达成多元治理共识。

(二)人工智能立法试图以静制动的两种自负

基于上述对欧盟、美国和日本以静制动的立法实践比较可知,各国立法在面对人工智能的不确定性时,均将法律当作赋予以单一主体决策来排除不确定性的正当性工具,其主要分歧点仅在于让哪一个主体决策以排除不确定性,即政府还是市场,抑或双方合作制定静态规则以排除人工智能的不确定性。

欧盟强调政府监管来规制风险的人工智能立法体现了其试图单独依赖政府来应对人工智能不确定性的治理观念,其对秉持西方价值的政府监管模式有着极端的自负。这种对政府监管的自负来自其历史经验,欧盟在多个产品和数据治理的历史立法经验中,均成功通过制定严格的、符合西方价值的产品标准问责机制,为欧洲开辟了独特的市场空间,并通过“布鲁塞尔效应”夺得了多个产品与数据的国际治理话语权。这种历史立法经验的成功让欧盟在人工智能立法领域继续保持了对政府监管的自负认知。然而,人工智能并非汽车、高端奢侈品等产品,也不同于数据,其作为一种模仿人类群体沟通实现智能主体目标的“人工沟通”,拥有很强的社会网络属性。这意味着不同国家、地区的人工智能都会具备本土特色与独特价值,不存在所谓的价值高低与一元性标准。因此,符合欧盟所谓高标准的人工智能产品并不会像高安全标准的汽车或具有欧洲文化的奢侈品那样受到他国公众的追捧与接受。并且,欧盟也严重高估了政府对人工智能不确定性的控制能力,即政府根本不享有划分与监管人工智能技术发展与应用风险的知识与能力,人工智能的技术复杂性与应用复杂性很难让政府独自得出恰当可行的风险划分标准。相反,法律完全赋予政府以宽泛的监管权力,只会形成监管套利并阻碍人工智能的发展空间。

而美国与欧盟恰恰相反,其旨在促进行业自治的“区分新旧、从宽到严、渐进分散”的轻触式立法,体现了其对市场能自主应对人工智能不确定性的自负。当然,美国这种对市场主导与行业自治的自负同样来自其历史立法经验,尤其是在互联网平台发展期间,轻触式立法让美国互联网平台获得了急速增长,其设置责任豁免条款来动态推动互联网平台自治的立法经验,在当代已成为平台治理立法的典范。这种轻触式立法注意到了政府无力独自进行复杂技术的计划性控制,并侧重于为市场形成自治秩序提供法律豁免与克制立法监管。但其问题在于忽视了市场中存在的风险不对称性与需要政府介入监管的系统性风险。市场中的风险不对称性体现为由少数人为大多数人作出风险决策,而这些少数人享受着这些风险决策可能带来的巨大收益,而由大多数人承担风险决策可能带来的损害。最典型的例子就是对个人信息的汇聚性利用,这对于互联网平台来说能获得巨大的可能性收益,但这些个人信息泄露等风险损害则是由公众承担,这种风险决策中权、责、利的不对称性必须要政府介入来打破。此外,市场虽然能够灵活应对大部分风险,但有一种系统性风险会打破整个生态系统,导致市场秩序的混乱与崩坏,对于这些尾部的系统性风险是必须受到政府监管与规制的。

日本应对人工智能不确定性的立法理念是对欧盟与美国的折中,因此其反思了欧盟与美国的两种自负。在日本政府于2021年7月发布的《治理创新2.0:设计和实施敏捷治理》报告中,其一方面认为人工智能的技术演进速度与不可预测性导致政府无法独自在面对人工智能持续性、动态性发展与风险问题时作出妥善治理决策,但另一方面其也提出完全提倡市场自治也存在如下几个问题:(1)市场很难自然形成一个能够制定与维持自治规则的行业协会;(2)即使这种行业协会能够成立并提出相应的自治规则,也必然会对用户和消费者不公平且会对新进入的公司设置入场门槛与竞争阻碍;(3)自治行业协会很容易受到大型企业的控制,导致其自治规则对大型企业自身不具有规范性。因此,日本采取目标导向的软法治理观念,由政府设定符合国内市场需求的治理目标,并要求政府与企业合作应对人工智能所带来的各种不确定性,以此试图构建一种敏捷性、多元性的监管立法模式。然而,日本折中欧盟与美国形成的软法模式也同时陷入了对政府与市场的自负,并引诱其陷入对法律作用的忽视。在《治理创新2.0:设计和实施敏捷治理》的报告中,其认为人工智能治理要舍弃规则导向转向目标导向,法律因其明确性与固定性不适合用于治理人工智能的不确定性,要由政府与市场共同灵活地决定人工智能如何发展与如何治理风险。但日本对政府与市场能自行合作应对人工智能不确定性的自负,导致其软法陷入复杂性与不确定性之中,无法为社会公众与企业提供稳定预期,其所认为的灵活性也同样会因为缺乏程序规则的约束而陷入多元主体决策的低效与风险不对称之中,因此难以达成其灵活性的敏捷治理目标。此外,日本虽然承认政府无法独自计划性地支配人工智能的不确定性,但自负地认为政府能够决定人工智能的技术发展目标,能计划性地规划政企合作的方式与配额,并且默认政企之间的合作将会是积极共赢的。

(三)作为治理工具的法律与被忽略的社会公众

需要注意到的是,欧盟、美国和日本虽然在人工智能立法如何应对不确定性的问题上有所分歧,但三者对于法律在人工智能治理中的角色与定位却有着共通之处,即认为法律仅仅是政府执行特定治理观念以排除不确定性的工具,其并不接受不确定性,也未能注意到法律平衡与联结技术发展动态性与治理规则动态性的可能。人工智能立法如何避免以静制动的两种治理自负,如何在接受人工智能不确定性的前提下实现动态治理的目标,实际上不仅仅取决于法律该如何认知人工智能,更取决于如何认知人工智能治理中法律的功能与角色。

无论是立法授权政府以广泛监管权力的欧盟,还是克制立法限制政府干涉市场的美国,抑或要求政府确立目标并保障政企合作的日本,均从实体性规则角度将法律当作了鼓励政府进行风险规制或是限制政府促进市场自治的工具,而一直忽略了人工智能进行多元共治的最重要主体——社会公众。这导致被夹在政府的“算法利维坦”与市场的“数字怪兽”之间的社会公众丧失了参与人工智能治理的必要渠道与法治保障。人工智能的不确定性导致人工智能发展与治理的实体性决策与治理规则必然是多元性、动态性的,但形成多元、灵活的动态治理决策的最佳路径是激发社会公众参与风险沟通、进行风险决策并共担风险。政府也好、市场也罢,应当成为引导社会公众中不同群体参与人工智能发展与风险沟通的引导者与服务者,法律并非政府或市场用于排除不确定性并执行单一治理理念或一元治理价值的工具,而应当成为多元主体针对具体的、动态的发展与风险问题进行合理沟通的民主基础。依法治理,是要让法律融入人工智能治理的全流程之中,让社会公众、政府与市场能够有序地共同进行多元价值的沟通决策与利益衡量,而非将法律当作执行某个治理主体所主张的某种一元治理价值的工具。因此,人工智能立法想要在接受不确定性的前提下联结技术发展动态性与治理规则动态性,就需要从沟通与程序的角度重新认知法律在治理中的角色与功能。

面对人工智能的不确定性,现代法治的程序公正原则理应被重新定义并发挥更加重要的作用。稳定、明确的法律虽然无法直接为分散、动态的人工智能治理共识提供实体规则保障,但能够为包含社会公众的多元主体针对分散、具体的发展与治理问题进行合理沟通提供程序保障。此种程序主义治理的法律认知观,将人工智能立法的功能目标转变成为多元主体形成分散、动态性治理共识提供合理的沟通网络,而非直接提供一种统一、静态性的实体规则。因此,法律要为人工智能时代的社会提供预期与信任,需要从直接设立实体规则来提供静态、统一性共识以斩断社会沟通的功能定位,转变为设立程序性规则以促进社会进行合理、分散的沟通并将这些沟通形成的场景化、多元化共识凝聚为动态治理规则的功能定位。此时,法律不再是维持稳定的、统一的社会沟通结果的工具,而是融入进社会沟通的全流程之中,为动态、分散的沟通决策及其形成的实体性治理规则提供稳固合理的沟通渠道。围绕沟通的法律功能转变才能让其以公开性、明确性与可理解性的特性应对人工智能的黑箱化、不可预测性与复杂性。

三、基于沟通程序实现风险共担的动态治理

自阿罗不可能性定理被提出后,排斥或忽略不确定性的社会理论合理性受到普遍质疑,将不确定性纳入理论前提成为当前策略互动研究的重点。法学研究也同样如此,对于法律确定性与人工智能不确定性之间的张力,已有学者论述了人工智能将推动未来法律向着以“大数据—小定理”模式来为风险社会提供动态性权利保护和流动性秩序建构的功能蜕变。此时,为实现基于法律的动态治理,现代法治的程序公正原则理应被重新定义并发挥更加重要的作用;应该从人机交互的角度来考察人工智能治理,把对可信人工智能的追求建立在人机交互的沟通程序之上。在此将以人工智能立法为例,进一步展开论述围绕沟通与程序所进行的法律功能蜕变。当面对人工智能的不确定性时,法律平衡技术发展动态性与治理规则动态性的关键在于围绕沟通的程序制度设计,其要依赖民主性沟通而非计划性监管来控制人工智能的不确定性。人工智能立法的目标并非为人工智能指明先验性、预设性、计划性的发展方向与治理规则,而是为具体的利益相关者进行发展与风险决策提供合理的沟通渠道与程序保障。要认识到,能在动态变化的不确定性中始终作出最佳决策的并非政府或市场,而是身在“算法利维坦”与“数字怪兽”夹缝之间的利益相关者,他们出于趋利避害的本能会为直接关系到自身利益的发展与风险作出最佳决策,法律的功能定位不是为政府与市场忽略、压迫他们提供工具,也不是替他们作出决策,而是保障每一个决策是由所有的利益相关者在权、责、利相对称的沟通环境下作出的。

(一)围绕沟通与程序的人工智能统一立法必要性与可行性

我国是否有人工智能统一立法的必要性?是有必要的,但这种必要性并不来源于欧盟的人工智能统一立法动机,即赋予政府对人工智能发展与治理的广泛监管权力。同时,美国不进行人工智能统一立法的原因也仅仅驳斥了欧盟围绕政府监管的统一立法模式,即政府不具有独自计划性控制人工智能发展与风险的能力,这只会阻碍市场对人工智能的自主性调控。我国进行人工智能统一立法的必要性在于为社会公众参与人工智能治理提供民主议论的法治保障,即通过程序规则的设计确立应对人工智能不确定性的合理沟通机制。而确立这种合理沟通机制的必要性在于两点:一是在发展层面,法律要为政府了解企业的技术现状与创新需求、为企业了解政府的战略规划与政策导向、为公众了解关涉自身利益的公共决策提供稳定、明确的沟通渠道,进而为多元主体动态作出的人工智能技术发展决策提供充分信息与合理预期;二是在安全层面,政府无法独自计划性地控制人工智能的复杂性风险,而人工智能的市场中又存在着风险的极其不对称性,这种风险不对称若一直放任不管将会导致人工智能发展生态被系统性的风险爆发所不可逆地损坏,因此,法律要为利益相关者作出合理的风险决策提供权、责、利相对称的沟通环境与程序保障,实现在人工智能动态治理中多元主体的“风险共担”。

围绕沟通的人工智能统一立法如何可行?这需要人工智能的统一立法关注于围绕沟通的程序规则设计而非阻断沟通的实体规则确立。程序是对沟通过程的制度化与规范化。其主要体现为沟通主体按照一定的顺序、方式和手续来作出决定的相互关系。其普遍形态是:按照某种标准和条件整理争论点,公平地听取各方意见,在使当事人可以理解或认可的情况下作出决定。而人工智能统一立法需要将人工智能的全生命周期分为技术研发、社会应用和人机交互等三个不同沟通阶段,并分别为这三个不同沟通阶段所涉及的多元利益相关主体设计敏捷、可问责的沟通程序规则,确保发展与风险决策的权、责、利相对称。这里会涉及已在公司法与人工智能伦理领域广泛应用的利益相关者理论,即一个公司的决策不仅要为其股东负责,还要为所有社会利益相关者负责,法律要通过信息披露机制与问责机制来为公司的决策提高可信度与合法性,这一理论也同样可以适用于人工智能各阶段的沟通决策。而这种利益相关者理论背后的底层原理就是通过风险对称的程序规则设计来实现风险共担,要让进行具体、动态、分散、多元的主体在其利益与风险相对等的情况下进行沟通与决策,确保每一个主体能在不确定性中通过承担风险获得相对应的收益,同时规制市场中的主体利用自身优势进行风险转移,避免让他人承担风险所带来的损害。因此,我国的人工智能统一立法应当以划分“沟通类型”为依据、以构建“沟通程序”为手段、以促进“风险沟通”为思路、以实现“风险共担”为目标。

(二)以明确、统一的程序规则统合分散、多元的实体共识

这种以风险对称和风险共担为目标、围绕沟通进行程序设计的人工智能统一立法思路与当前我国学者所主张的依据具体场景的分散式立法并不冲突,或者可以说是对此种思路的补充。目前认为我国不急于进行人工智能统一立法的观点在于,人工智能的不确定性导致目前并未形成人工智能的发展与治理的一般性共识。这对于目标在于直接提供社会共识以阻断沟通的实体性立法而言,确实如此。但在围绕沟通的程序性立法视角下,以人工智能统一立法来确立稳定、统一的沟通程序规则是有利于推动我国在各个场景中形成分散、动态的发展与治理共识,进而促进我国形成不同场景的实体性治理规则与场景性分散立法。当然,这种围绕沟通与程序的人工智能统一立法需要重新理解其同时兼具的公法属性与私法属性。一方面,此种人工智能统一立法要为涉及国家安全与公共安全利益的相关决策提供政府主导的沟通与决策程序,这既代表着法律要赋予政府作为国家与公共安全的直接利益相关者获得信息进行决策的权力,同时也要限制这种国家安全与公共安全的事项认定范围,避免政府直接干涉其他个体利益的相关决策。另一方面,此种人工智能统一立法要从风险共担角度设立维护风险对称性的相关基本权利,这意味着其要具有维护市场中多元主体对涉及自身利益的风险问题自主作出决策并承担相应风险的私法属性。但无论私法属性还是公法属性,围绕沟通与程序的人工智能统一立法要坚持一个原则:要确保在人工智能的不确定性中发表观点与作出决策的主体是风险与收益相对称的风险共担者。

基于人工智能统一立法的功能定位蜕变,人工智能的立法体系将会是一种以明确、统一的程序规则统合分散、多元的实体共识,再以这种分散、多元的实体共识作为具体场景的、分散式立法的基础。这同时也就意味着,将这些法律的程序性规则视为一种引导法律自下而上地理解不确定性、形成分散共识的沟通过程,而非政府机构自上而下地执行法律实体规则的一元规制过程。因此,人工智能统一立法中的问责机制也将不同于分散、场景性的实体性治理规则,其更多强调对沟通渠道的搭建义务与决策程序的合规审查,对违反程序性规则的追责也是对其决策的风险损害承担而非市场禁令或天价处罚。人工智能时代的程序公正原则也就需要被重新定义与重视,需要寻找到技术性正当程序与法律性正当程序两者之间的最佳组合方式,其可以通过以法律的形式规制代码的实践、数字时代的人机对话和沟通的程序公正、代码框架下的技术性正当程序与法律性正当程序等几个方面进行更深入的落地与实践。同时,人工智能立法将不再局限于安全红线的划定,而是对如何动态划定安全红线的沟通程序机制进行设计,其也不再局限于对人工智能产品的禁止或允许,而是可以从对外包的限制、对风险决策的程序性问责、对科技伦理的程序性审查等多个角度切入,为法律控制人工智能的不确定性提供一个更加灵活、多元、敏捷的人机交互与风险沟通视角。

(三)如何通过沟通与程序来应对涉外法治中的多元价值冲突

我国应当围绕沟通与程序进行人工智能统一立法的必要性除了应对人工智能的不确定性之外,也体现在应对中国涉外法治中面临的多元价值冲突。欧盟、美国和日本虽然应对人工智能的不确定性采取了完全不同的立法思路,但在涉外法治层面不约而同地宣称西方价值的优越性。面对欧盟的价值优越主义与美国的霸权主义,我国需要通过强调自主性的人工智能统一立法来构建一种平等对话、多元共治的人工智能治理理念。

相较于独尊西方价值的欧盟、美国和日本,中国对价值的理解强调交流互鉴,即价值不是单方面被宣告或颁布的,而是在阐释学实践中进行相互理解的产物。交流互鉴是阐释学的实践,发生在人与人之间的交流互鉴,就是在相互理解中相互学习、相互成就,发生在文明之间的交流互鉴同样如此。因此,为了让人工智能统一立法符合我国独立自主、和平共存、加强合作的外交政策,应当避免陷入追求与他国达成实体性共识的“最大公约数”式立法,抑或推崇本国独特价值的“脱钩自主”式立法这种二元对立的涉外法治悖论。而是从风险共担的角度,为各国不同主体间就切身利益的风险决策享有风险对称的自主性与平等性提供沟通环境与程序保障,让中国的人工智能统一立法成为跨国多元主体进行平等沟通协商、达成分散、动态治理共识的平台基石,进而促进中国与其他国家能够在明确、平等、合理的沟通规则下进行具体场景的合作治理协商。这一方面能够为中国在涉外法治上作出与自身利益相关的人工智能风险治理决策提供正当性基础,另一方面能够为中国搭建平等合作的多边平台提供具有中国创见的人工智能统一立法方案。

四、结语

人工智能的不确定性是人工智能立法所面临的核心问题。这种不确定性分别体现在三个层面,分别是:(1)人工智能由于技术的复杂性与拟主体性所引发的迭代路线不确定性,这成为颠覆人与技术之间单向支配关系的关键,并使得人工智能伦理与立法具有不同于以往技术变革的时代独特性;(2)人工智能由于应用场景广泛性与应用后果颠覆性引发的未来损害不确定性,这成为人工智能的风险治理上升为全球公共话题的关键,并意味着人工智能立法具有推动人工智能风险治理的时代必要性;(3)人工智能由于风险治理的主体多元性、价值多元性、场景利益多元性、目标需求多元性所引发的实体规则不确定性,这成为人工智能统一立法在必要性与路径方面产生争论与分歧的关键性诱因,并代表着人工智能立法需要具有平衡与联结技术发展动态性和治理规则动态性的时代创新性。

对此,欧盟、美国和日本分别形成了强调政府监管的风险规制立法、侧重市场主导的行业自治立法与聚焦政企合作的软法引导立法等三种不同模式。而通过比较可知,引发人工智能立法产生分歧的核心在于,对政府与市场在人工智能治理中所应当起到的作用与所扮演的角色有着差异化的理解。这同时也就产生了两种以静制动的自负。从更高一个层面来观察这两种以静制动的自负,实则两者均将法律当作了人工智能治理排除不确定性的工具,并忽略了被政府的“算法利维坦”与市场的“数字怪兽”挤压在中间的社会公众。此时,法律仅是政府或市场进行事先确立目标或事后结果问责的治理工具,并未成为保障社会公众参与人工智能全流程治理的民主基石。因此,为了实现人工智能统一立法的动态治理目标,需要重新认知法律在人工智能治理中的功能定位,将保障社会公众、政府与市场三者对动态、分散的人工智能风险进行有效沟通与决策作为主要关切。

对于人工智能的不确定性,我们不能指望法律直接替代人们作出一般性、稳定性、正确性的发展与治理决策。人们在面对不确定性和外部压力时,只有身临其境、设身处地亲自承担风险,才能作出正确的决定。人类学研究表明,人类的决策过程主要是由激素推动的。知识、经验和理智在这个过程中所起的作用并不大,我们往往是在作出决定之后,再用智慧去寻找证据以便证明自己的决定是正确的。因此,现代法治的程序公正原则理应被重新定义并发挥更加重要的作用;应该从人机交互的角度来考察人工智能治理,把对可信AI的追求建立在人机交互的沟通过程之上。对此,人工智能统一立法的目标,需要从作为政府监管或市场自治的工具转变为社会公众进行民主议论的基石,需要从直接提供社会共识以阻断社会沟通的功能定位转变为促进社会沟通以统合分散、动态性共识。这意味人工智能统一立法应当以划分“沟通类型”为依据,以构建“沟通程序”为手段,以促进“风险沟通”为思路,以实现“风险共担”为目标。我国需要围绕沟通与程序进行人工智能统一立法的必要性除了包括应对人工智能的不确定性之外,也体现在应对中国涉外法治中面临的多元价值冲突,为中国搭建平等合作的多边平台提供具有中国创见的人工智能统一立法方案。

 

本文注释、参考文献略。

作者:

季卫东,上海交通大学文科资深教授、凯原法学院讲席教授,上海交通大学日本研究中心主任

赵泽睿,上海交通大学中国法与社会研究院、凯原法学院助理研究员

来源:《学术月刊》2025年第3期

进入 季卫东 的专栏     进入专题: 人工智能   动态治理  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/163777.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。

评论(0)

Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统