摘 要:规范人工智能的部门规章及学者建议稿的软度测评、主题为人工智能治理的3706篇文献的词频分析显示,人工智能治理存在软法依赖现象。环境风险、金融风险、垄断风险等传统风险的治理实践警示:软法主导的流动秩序无法控制“被规制风险”和“规制本身风险”。因为被规制者可能实施规制俘获、标准劫持、伦理漂洗等,而规制者可能利用软法空筐结构实施硬监管、滥用软法产业工具逐底竞争等。尽管软法依赖需要被修正,但绝不能矫枉过正而追求硬法全景统御,而是应建立硬法提供保障基本权和控制系统风险的框架秩序、软法在围栏内展其所长以提高治理系统适应性的均衡构造。具体路径为:制定统一的人工智能法,并明确其底线法而非促进法的定位,建构与宪法价值对齐的基本原则体系,置入“人在环上”的硬性规则,以及完善覆盖规制主体、市场主体、自我规制单元的梯度问责体系。
关键词:人工智能;软法;科技伦理;促进型法;基于原则的监管
一、问题的提出
人工智能是浮士德的交易,既能带来颠覆性创新,又蕴含风险。此利弊的共存导致很多国家同时进行着技术竞争和规则竞争。后一竞争体现出国别差异性:欧盟是硬法治理的典范,特朗普2.0时期的美国则奉行柔性监管。我国虽尚未制定综合性人工智能法,但践行小、快、灵的立法逻辑,出台《生成式人工智能服务管理暂行办法》(以下简称《生成式暂行办法》)《互联网信息服务深度合成管理规定》(以下简称《深度合成规定》)《人工智能生成合成内容标识办法》(以下简称《内容标识办法》)等,甚至一些要素性立法领先世界。然而,凭此仍不足以把我国归入“积极规制型的强监管模式”。相反,本文认为在对科技创新一贯珍护的路径依赖下,我国存在软法依赖。
尽管软法现象及理论已被越来越多的学者认可,但对软法概念的界定却莫衷一是。本文并不尝试进入“定义丛林”,而是将软法范畴分成“核心区+外围带”。有行为约束力且配置明确法律责任的规范为硬法,无任何法律责任规定、不依靠国家强制力但对行为人有约束力的规范属于核心区软法,这两类规范相对稳定且共识程度相对较高。需要说明的是,不是所有“无法律责任”的规范都是软法。因立法技术问题,法律中常常存在说明性条款、解释性条款、职权划分条款等无责任规范,但它们不具有对行为人的约束力(即无行为规范意义),进而不会涉及效力的硬软评价,因此通常不是软法理论关注的对象,亦不是本文研究对象。然而,在具有行为约束力的规范中,还需留意一些介于软、硬法之间的灰色规范,本文称其外围带软法,其“无对应法律责任”的状态可能是模糊、动态或暂时性的。随着法律的适用、配套规定的完善、行政或司法解释的补充抑或法院裁判的确认,其法律责任有可能得以明确进而重获强制力。因此,外围带软法是变动和不稳定的,也是最具争议性的。本文将研究焦点主要置于核心区软法,因为立法性规定中的软法规范(如倡导、宣示性条款)、伦理规范、自律规范、技术规范等典型软法是当下治理人工智能的重要力量。聚焦于此,足以剖析软法依赖问题。纠缠于外围带的边界问题,会阻碍软法分析工具进一步适用。
不可否认,软法在收集信息、探索试错等方面有比较优势,在环境风险、金融风险、卫生风险、竞争风险等治理实践中得到广泛应用,但其也存在实效赤字、执行无力、问责真空等缺陷。上述传统风险的治理经验也表明:硬法才能塑造底线秩序、保障基本法益及控制系统性风险,软法“喧宾夺主”不仅无助于解决监管步调,反因监管留白和裁量恣意而让软法(soft law)沦为软专制(soft despotism)。孙斯坦将风险分为“被规制的风险”和“附加性风险”(即规制本身引发的风险)。软法在双重维度上均可能失灵:既无法控制市场主体滥用技术霸权造成的算法歧视、虚假伪造、技术垄断等风险,也无法应对政府主体选择性执法、地方保护、监管竞次等附属性风险。下文首先对人工智能立法文本和学术文献进行评估,尝试证成软法依赖现象已经形成,再剖析其潜存的负面效应,最后提出平衡方案。
二、人工智能治理中软法依赖的双维考据
美国亚利桑那州立大学古铁雷斯等在全球范围内确定了634个软法项目,但主要聚集于社会性软法之上。事实上,除了行使社会权力的组织会生产大量软法(如《生成式人工智能行业自律倡议》),公权力主体在制定法中也注入了大量软法,人工智能规章及其他立法性规定都成为软法的“栖息所”。除了反思社会性软法的泛化,下文将指出国家法中存在软法依赖的证据,并在后文证明隐藏于“科层制阴影”的国家软法洪流同样具有危险性。
(一)立法中的软法依赖
有论者初步统计,在国家立法的法律、法规和规章中,软法条款占21.3%,这类简单的统计虽较为直观,但运用到人工智能立法之中并不容易。因为其很多法条处在软法外围带,要么软、硬法共存(如部分条文是硬法而部分是倡导规定),要么软、硬法混淆(如适用前提含糊不清而不易明确法律责任)。并且,立法者对法律责任采用引致适用等策略性模糊技术,形成了“转致迷宫”。除了《互联网信息服务算法推荐管理规定》(以下简称《算法推荐规定》)第31条明确规定违反本规定的法律责任,《生成式暂行办法》第21条和《深度合成规定》第22条要求依照有关法律、行政法规的规定予以处罚,《内容标识办法》第13条还要求依照有关部门规章的规定予以处理。此时,不能仅因找不到本法责任就得出目标条款属于软法的结论,还需努力去“有关规定”中寻找能与之联结的责任条款。比如,深度合成服务提供者违反《深度合成规定》第9条,向未进行真实身份信息认证的深度合成服务使用者提供信息发布服务的,有可能要承担《中华人民共和国网络安全法》(以下简称《网络安全法》)第64条规定的法律责任。然而,由于“有关规定”暧昧不明,仍有不少条款的他法责任难以确定。例如,如果该提供者违反《深度合成规定》第10条未健全用于识别不良信息的特征库,承担何种责任就不是很明确。因此,“软法条款占比”这类二分指标并不可靠,得出的结论也总是伴随争议。
有鉴于此,本文尝试用人工智能立法的“软度”这一加权指标。统计学上,如果对软度、硬度这类抽象概念进行量化研究,需要编码化处理。本文采取如下编码规则:(1)编码化只面向会对接受规整之人相关行为产生影响的有行为规范意义的法条,其决定一部法律是软或硬的效力评价。有研究得出某部门法软法占比超过70%的不合理结论,原因可能就在于把说明性条款、解释性条款、职权划分条款等非完全法条归入软法。(2)如果判断某一法条具有“宣示性”“倡导性”“训示性”或“反身性”特征且无法律责任规定,则赋值1,表征典型的核心区软法。(3)如果是通过“法律惩罚装置”禁止或命令特定行为且有明确法律责任的法条,则赋值0,表征硬法。(4)如果某一法条的法律责任确实难以被确定,抑或硬软法夹杂(如《深度合成规定》第14条第1款为软法,而第2款为硬法),则赋值0.5,表征介于软、硬法之间的半软法(即外围带软法)。相比0或1的二分,0、0.5和1的有序赋值更能准确反映规范效力强度的复杂和动态性,还能对软法的边界、外围带的范围等争议进行模糊逻辑处理,以使后续量化分析成为可能。(5)不同法条乘以对应赋值并加总求和,再除以总的法条数,得出整部法律的软度指数。经统计,规范人工智能的四部规章软度为35.7%~52.1%。最为综合的《生成式暂行办法》软度为52.1%,《内容标识办法》《深度合成规定》《算法推荐规定》的软度分别为35.7%、38.0%和35.7%。凝聚学界智慧的《人工智能法(学者建议稿)》和《人工智能示范法3.0》的软度分别为45.8%和39.7%。
软度指数不仅使法律的软硬程度变得可统计描述,还能与其他风险立法进行横向对比,以判断人工智能立法是否“过软”。基于下述理由,本文选取针对药品、转基因、环境等传统风险的监管立法作为参照。第一,尽管人工智能风险有其特性,但与传统风险也有如下共性:一是不可预测性。人工智能风险难以预测,但人类经历的很多风险都是不易精算的。气候变暖、转基因等风险迄今仍遭一些技术精英否认,但并不妨碍监管决策,因为监管者在科学不确定性条件下处置风险已是常态。二是高传递性。判别式到生成式技术的跃迁大幅增强了人工智能风险的扩散率,但一些新冠病毒的基本再生系数R0高达18,短时间内曾引发系统性卫生风险,一次次挤兑危机说明金融流动性风险的传播亦迅猛异常。三是不可追责性。吉登斯将风险分为规则性的外在风险与难以预测的人为风险(尤指科技带来的风险),后者因人的主观性嵌入、归因的非线性等因素而出现过“归责危机”。人工智能确实对问责体系带来严峻挑战,但恐怕不是前所未有的。第二,这些共性的存在意味着很多风险规制逻辑是可以通约的,如人工智能规章引入的标识制度就被“食品安全领域尤其是转基因食品领域较多采用”。因此,人工智能立法和传统风险立法具备了一定的可比性基础。经统计,作为应对转基因风险基础法的《农业转基因生物安全管理条例》软度为3.7%,应对药品风险的《中华人民共和国药品管理法》软度为9.0%,《中华人民共和国环境保护法》软度为21.4%,《中华人民共和国生物安全法》软度为18.8%。传统风险立法3.7%~21.4%的软度与人工智能立法35.7%~52.1%的软度两档数值间有明显差距,人工智能立法软度的中位值(43.9%)几乎是传统风险立法(12.6%)的3.5倍,一定的争议或误差并不能动摇人工智能软法依赖性更强的结论。
(二)文献中的软法依赖
软法依赖不仅存在于立法之中,还体现在学术文献中;前者是软法依赖症的表征,后者对软法理论的偏向与辩护则是推因。本文以“人工智能治理”为检索词在中国知网数据库检索,对相关文献进行筛选并剔除会议纪要等,最终确定3706篇文献;再提取标题、关键词和摘要作为数据源,使用文献分析软件CiteSpace进行词频分析。CiteSpace提取的关键词是对文献的研究主题及论点进行集中描述、高度概括的词组,其频数大小能反映研究的焦点。经分析,频数排名前21的关键词中多达10词与软法相关:数据治理(147次)、社会治理(127次)、伦理治理(69次)、技术治理(62次)、智能治理(57次)、数字治理(56次)、协同治理(50次)、算法治理(43次)、教育治理(36次)、敏捷治理(35次)。
上述10词即代表10种治理模式,以“技术—方法”为基准可分为两组。第一组是技术型治理模式(包括数据治理、技术治理、数字治理、智能治理、算法治理),其强调运用数据、算法、技术等,以“技”治“技”。无论运用大数据、算法技术抑或其他智能技术,都要求治理者保持较强的学习能力,依靠职业协会、技术企业、开源社区等知识单元形成技术规范、专业标准等来弥补自身的知识短缺,这决定了技术型治理“对软法有着非常大的需求”。第二组是方法型治理模式(包括社会治理、协同治理、敏捷治理、教育治理、伦理治理),其强调用社会合作、多元协同、伦理教化、敏捷回应等方法,以“术”治“技”。诸方法的践行同样需要推动治理架构向强调合作、激励、多中心的软法范式转变。以伦理治理为例,抽象性的伦理规范(如增进人类福祉、可控可信)只能靠行业标准、行为指南等软法工具来落实,诉诸硬法可能会产生较高的执行成本,还可能对一些创新产生“寒蝉效应”。总之,技术型、方法型治理与软法构成目标和手段的关系,追求这些治理范式必然会在手段选择上更依赖软法。
除了统计文献词频,笔者也对文献观点进行粗略梳理,发现一些论者认为刚性立法应缓行,主张依靠反身法、制度试验、行业自律、监管沙盒等软法工具,这些“让子弹继续飞”的观点可能也是软法依赖的一种表现。在世界范围内,一些国家显现软法偏好,比如2025年通过《人工智能相关技术研发及应用推进法》的日本较具代表性,可能也会对国内软法支持论产生一定的强化效应。
三、软法依赖的发生学阐释与缺陷分析
软法偏好并不是空穴来风,行政法学者早已指出软法的优势,包括制度变革的回应性、创制过程的协商性、制度安排的合意性、实施方式的温和性等。人工智能治理中软法更是凭借其独特优势崭露头角,但传统治理也警示软法依赖可能产生抵消其优势的治理缺陷。
(一)软法涌现的发生学机理
人工智能治理领域出现软法依赖由来有自,经文献梳理可总结出四点原因:
第一,弥补监管者理性不足。人工智能的涌现性、黑箱性、不可解释性导致监管者想要追踪人工智能科技前沿变得艰难。在涉及陡峭学习曲线且监管者尚未理解新兴技术特性的情况下,贸然使用硬法,可能阻碍技术的探索与创新。软法能利用公私合作、自律机制、制度试验等方式克服信息困境,给监管者提供“从做中学”的机会。
第二,克服“监管步调”难题。面对预训练语言模型的高度迭代,硬法易引发“箭射靶离”的实效难题。相较之下,制定程序便捷灵活、试错成本较低的软法能紧跟技术的演进并及时因应不同场景的治理需求,保持法律系统的弹性;同时,模糊性、描述性、协商性的规范语言能为新兴技术和产业预留发展空间。
第三,形成多中心分布式治理结构。人工智能大模型具备极强的泛化能力,可以嵌入千行百业,导致风险无处不在,硬法的中心化逻辑可能不敷使用。而软法将监管权社会化,形成多中心治理网络。行业协会、企业组织、其他利益攸关者在软法提供的沟通平台上进行试验、对话与合作,有助于消弭监管分歧并凝聚利益共识。
第四,促进人工智能产业发展。软法能灵活因应产业调整需求,有降低交易成本、解决集体协调困境等优势,进而促进产业发展。有学者主张人工智能立法应采促进型立场,要提高产业发展的比重,结果必然导致软法增长。
(二)硬法缺位的功能性缺陷
事实上,上述诸优势已在传统风险治理中得到了展现进而促成不同类型的软法依赖症候,但也引发了一系列负面效应。尽管人工智能治理与传统治理存在区别,但过往经验仍有巨大参考价值,因为无论技术如何迭代,背后涉及的社会关系、法益平衡、权利保障等法认知是相对稳定的。龙卫球借用维特根斯坦提出的“绳索论”形容人工智能立法和传统法律的关系,即每一截新绳索与前一截并不相同却相互联系着,呈“家族相似性”。我们应秉持此“联系”思维,既要支持人工智能治理对传统治理的正向价值萃取,也要警惕传统治理因依赖软法而产生的下述失灵。
第一,针对风险的规制本身就会造成损害,致使监管失灵。在风险社会,我们不仅要控制“被规制的风险”(如烧煤引发的空气污染),还须应对“附属性风险”,即规制本身(如相关行政管理措施)引发的风险。例如,环境治理领域有两个特征:一是在缺少硬法约束的情况下,软性的人工智能地方立法难以给予规制机关充分的环境执法依据和保障,规制机关可能陷入“规制失灵”困境,导致环境法律的实施出现选择性和碎片化问题。二是在外部压力机制下,规制机关可能采取不符合比例原则的规制措施,致使监管失度。过去一段时期,一些地方环保部门或采取以停代治的措施,要求生产企业关停厂房设备,在一定程度上影响了企业生产经营。因此,生态环境部曾专门制定《禁止环保“一刀切”工作意见》,防止一些地方要求企业集中停工停业停产。在软法主导的秩序中,倘若发生工业机器人伤害工人、聊天机器人致人死亡(如美国Character. AI案)等事件,规制机关在缺乏硬法规定的情况下,就可能会因恐慌而采取不符合比例原则的措施。
第二,存在空筐结构的软法并不能带来多中心协作治理,反而可能产生让资本或技术强势者实施“软专制”的扭曲激励。互联网金融风险的监管教训值得参考。以金融抑制为特征的压力型监管因阻碍创新而屡遭非议,于是面对“个人对个人网络借贷”(P2P)这一新事物时,监管者选择了以金融包容为特征的软法路径,当时十部委联合发布的《关于促进互联网金融健康发展的指导意见》中“绝大多数是宣示性意义浓烈的监管原则和倡导性条款”。在上位硬法缺位的环境中,行业协会开始争夺规则话语权,试图用“自律”推动“他律”,《小额信贷信息中介机构(P2P)行业自律公约(修订版)》的公布即为标志之一。但在巨利诱惑下,一些网贷平台铤而走险甚至操纵庞氏骗局,轻触式的软法体系对此毫无办法,最终“个人对个人网络借贷”在运动式整治下退出历史舞台。软法支持者期望通过民主过程形塑协调性秩序,但忽略了前提——先要为不同利益攸关者的平等地位和表达通路提供硬性的制度保障。在人工智能领域,因为消耗算力和能源的人工智能逐渐被数据寡头垄断,在硬法阙如的非对称性赛博空间里,多中心协作可能只是乌托邦式构想。
因缺乏必要公众和知情利益相关者而导致协作治理难以成功的现象被索洛-尼德曼称为“公—私困境”,其在下述三类软法中都有体现。一是人工智能行业自律规范。“行业参与者不可避免地会优先考虑自身利益,行业自律可能存在利益偏向”,导致自律规范难以形成协作治理格局;而且一些行业协会对大企业存在财务依附,通过自律规范驱逐僭越软法的强势企业可能面临经济阻碍。二是被技术企业家视为效率性治理工具的人工智能标准。由于不同攸关方的利益诉求得不到充分表达和考量,一些标准的普适性大打折扣。有学者直言:“相关标准组织在制定标准时通常依赖业界‘圈子’人脉进行内部讨论……中小企业无法充分参与其中……”三是人工智能伦理规范。由于缺少有效的实施保障机制和外部监督机制,实践中一些伦理规范成为大企业掩盖技术歧视和剥削、转移公众关切、逃避公共责任及延迟实质性监管的漂洗工具。
第三,软法有可能会弱化立法和司法体系内置的平衡机制。在立法方面,硬法的制定过程要经过草案的公开征求意见、立法听证会、专家咨询等环节,这“恰恰为多元主体提供了一个制度化的沟通、博弈与协商平台”。不同主体的多样性利益诉求能得到充分议论,少数利益、代际利益等都能被认真考量。但是,人工智能软法的生产过程缺少这种平衡机制,制定者通常不是立法机关,制定过程也欠缺公开性和可见性,普通公众也难以参与一些具有专业壁垒的行业规范或标准规范的决策过程。这导致缺少外部约束的软法有可能被夹杂行业利益、垄断企业利益等,也容易陷入只重视短期利益而忽视长期利益的“阿玛拉陷阱”。在司法方面,如果个体因人工智能开发者、提供者实施违反伦理规范等软法的行为而受到损害,“民众一般无法从司法渠道获得有效救济”,因为可诉性、原告资格、因果关系等方面可能会存在一定的障碍。再者,以“谢弗林原则”为代表的行政法尊重学说表明,在新兴技术这一不确定领域,司法机关通常会尊重行政机关没有明显违反法律、非任意和反复无常的政策决断,这意味着被规制者不易通过司法程序监督软法性质的人工智能行政规定或决定。
第四,软法依赖可能会引发国家间的逐底性规则竞争,进而可能造成全球人工智能治理的“公地悲剧”。当下,日本有可能在亚太地区掀起一场软法竞争,其制定的《人工智能相关技术研发及应用推进法》未设置任何法律责任条款。日本总务省发布的《信息通信白皮书》承认日本在人工智能的研发和应用方面比较落后,指出2024年只有约26.7%的被调查者用过生成式人工智能,而中国被调查者的使用比例高达81.2%。这或许从一定侧面部分解释了为何日本比较彻底地转向软法一元论。但软法主导模式会导致监管缺失引发的算法歧视、数据泄露、深度伪造、认知操纵等风险通过网络空间向其他国家转嫁,最终可能导致全球人工智能治理秩序的碎片化。与日本不同的是,我国是一个人工智能高渗透率国家,人工智能不再是一种行业级技术,而是融入经济社会秩序末梢的技术基座,整个社会所面临的人工智能风险的规模性和广泛性是低渗透率国家难以比拟的。这要求我国既需要运用软法的适应性和灵活性推动技术进步和产业发展,又必须通过硬法为人工智能研发和应用划定行为底线、保障公民基本权、为软法提供“规范的规范性”。作为负责任大国,我国一贯坚持安全与发展并重的理念,可以利用世界人工智能合作组织等多边机制输出“软法和硬法均衡、安全与发展统筹兼顾”的中国方案。
四、实现软硬法均衡的人工智能立法逻辑
软法依赖需要被修正,但绝不能矫枉过正而走向追求硬法统御、法网密布的另一极端,“以‘硬法’为引导和保障不代表忽视‘软法’的优点和作用”。正确路向是:通过软硬法配置逻辑的廓清以及具体规则的加减运动,形成软度合理、软硬均衡的人工智能规范体系。
(一)明确方向:制定软硬法均衡的人工智能法
已有学者提出“分割而治”的软硬法配置方案,即对技术开发者适用软法,而对技术应用者适用硬法。但当开发者正在设计高危险性的人工智能模型时,及时启用硬法能将风险止于未发;而下游应用场景千差万别,无法用硬法事无巨细地指导应用者“何为最佳实践”。相比二元思维,下文主张应划分规范效力层级,坚持一种“纲举目张”的配置逻辑。
1.实现软硬法均衡需要统一立法
所谓“纲举目张”指硬法为纲、软法为目。申言之,以硬法构筑人工智能法秩序的四梁八柱,提供有明确红线的规范环境;软法则在硬法围栏内发挥先导、补缺、疏导、填充、试验等功能,其权变裁量和利益平衡亦是在硬法约束下祛除恣意性的稳定过程。不过,为了长效性维持此纲举目张的均衡结构,必须制定统一的人工智能法,因为要素法、场景法、模块法等分散立法模式下该均衡很容易被打破。统一立法并不是追求“大而全”或“一刀切”,而是设置具有约束性、确定性的法律原则及具体规则,明确公、私行为体的权义配置及问责机制,搭建稳定、刚性的元治理框架。既要为包括软法在内的其他规范提供权威基点和效力支撑,也要避免因上位硬法缺失而导致软法“野蛮生长”。
传统治理的经验也警示防治系统性风险需要统一立法。分散立法可能存在“见树不见林”的管道视野,无法实现风险全覆盖;其产生的规则冲突及留下的监管真空都会滋生软法,进而打破软硬均衡。例如,我国依靠针对大气、水体、固体废物等要素的单行法来控制环境风险,但造成监管重叠或形成监管罅隙,导致一些地方政府选择式执法、市场主体进行监管套利,更严峻的是无法控制不确定性系统性风险。我国制定生态环境法典的理由之一就是贯彻风险预防原则,以“应对诸如新污染物致害不确定、传统污染物大尺度空间扩散传输可能导致的后果不确定等”。又如,我国对金融风险采用按照金融业别的分散式立法模式,留下的监管真空中依靠市场声誉和同业压力的金融软法如雨后春笋般涌现,但都难以遏制频发的风险事件。国家提出制定金融法,其中一个目标就是“实现金融活动监管全覆盖”。
跨模态和跨域性的人工智能风险也是一种典型的系统性风险,同样需要统一立法。当前的分散立法模式存在“立法层级不高、概念术语不一、规则交叉重叠甚至相互冲突以及监管空白等问题”,难以有效防范此类风险。有学者以电子商务为鉴,建议我国目前不应急于制定统一的人工智能法,因为《中华人民共和国电子商务法》(以下简称《电子商务法》)的前身是电子商务促进法,但立法程序启动后,该法的定位逐渐由促进法变为监管性立法。然而,《电子商务法》正式施行后,我国电商市场规模持续大幅增长,还涌现社交电商、直播电商等创新模式,这一定程度上得益于统一立法对监管体系明确性的提升及对电商经营者主体责任的压实等。电商风险是产业发展到一定阶段才爆发的,可先观望后立规;但人工智能从产生伊始就伴随多重风险,对统一立法的需求更迫切。
2.坚持底线法定位才能维持均衡
尽管支持统一立法的观点逐渐积累了一些共识,但对人工智能法定位的分歧依然显著。产业法、促进法、创新法等定位可能导致软法过剩,而风险法、监管法、安全法等定位可能挤压软法的空间,均不利于维持均衡。笔者认为人工智能统一立法应坚持既是基本法也是底线法的定位,才能实现软硬法均衡。这归因于底线法秉持如下标准:一是底线法主要保护的是不可克减的基本权益,调整的内容具有底层性,故底线法也是宪法秩序在人工智能领域的具体化。二是底线法应当具有一定的硬度,这不是说要全面接管日常秩序抑或设置大量惩罚性规定,而是体现为始终留有终局性、后置性手段(典型者如开关条款)以捍卫人的主体性。三是底线法具有谦抑性,追求的是较优、平衡、向善而不是最全、最严、最细,即通过划红线、设围栏为其他规范提供框架性指引。四是底线法不是静态法和封闭法,其能利用立法预测学、法律未来学、法律韧性理论等克服不学习特征,通过设置一般条款、落日条款、清单条款、授权条款等方式保持开放性。
两部人工智能法专家建议稿都存在产业法色彩过重的问题,分别设置了“人工智能支持与促进”和“发展与促进”专章,推高了软法占比。笔者认为可以尝试弱化甚至放弃产业法或促进法定位、取消产业促进专章、降低产业条款比重,只保留个别提纲挈领的倡导条款以表明支持和发展人工智能的国家意志,发挥实定法的表达功能。例如,可规定“国家坚持人工智能安全和发展并重,鼓励和支持人工智能基础理论研究和关键技术创新,推进人工智能基础设施建设,促进人工智能产业健康发展”。退一步说,即便未来人工智能法设置了产业法专章或引入一定数量离散化的产业条款,也很难承担复杂产业调控和培育任务。因为无论是幼稚产业保护理论,抑或后发优势理论都要求国家对人工智能产业布局、产业培育、产业调控等内容进行专门化、精细化立法。欧盟制定不含产业规范、监管先行的《人工智能法》后,于2025年发布促进产业、发展先行的《人工智能大陆行动计划》(其中提出制定《云计算和人工智能发展法案》)。我国已出现一些地方性的人工智能产业规范,未来还可考虑制定全国层面的《人工智能促进法》,形成“人工智能基本法”引领“人工智能促进法”等多法的层级构造。此种底线法提供高层次指导、单行产业法规定内容细节的总分模式,可以有效降低基本法的软度。这不仅不会阻碍产业发展,还能让以后将蔚成规模的产业立法(尤其是地方性立法)接受底线法的调控、监督和审查,避免因地方保护主义、政府公司化竞争、破坏统一大市场等问题而落入人工智能产业发展中的“李斯特陷阱”。
(二)具体进路:“原则—规则—问责”逐级建构
统一立法应明确核心范畴、价值理念、法律关系、基本原则、规范体系、问责机制等内容。下文主要抓住“法律原则—具体规则—问责机制”这一核心脉络,为实现人工智能法的软硬均衡提供若干建议。
1.明确法律原则:与基本权价值对齐
一部法律的软硬度与法律原则密切相关。明确和稳定的法律原则能为具体规则划定刚性边界并提供关于确定性的支援,而主观和道德化的伦理原则可能会弱化或淡化法律的规范效力。面对或然性的人工智能,法律系统必须依靠“基于原则的监管”来守住底线,故建构刚性的法律原则是人工智能统一立法的关键任务。两部专家建议稿都设有不少原则条款,可能在一定程度上移植或借鉴了《新一代人工智能治理原则》《新一代人工智能伦理规范》等软法中的增进人类福祉、公平公正、可控可信、开放协作等原则。但这些伦理原则“基本是抽象的、模糊的”,难以用于法律实践。对此,可搭建价值指引机制让伦理原则实心化。那么,该去何处寻找这种指引呢?欧盟在《可信人工智能伦理指南》中给出了答案:基本权利为确定抽象的伦理和价值观提供了最有希望的基础。欧盟《人工智能法》序言第14a条提出的几项原则均是基本权利的具体化,如人类主体和监督原则是《欧盟基本权利宪章》第1条人性尊严和第6条自由保护的具体化。可以说,除了“风险导向”,欧盟《人工智能法》还存在“基本权导向”。
这一线索值得重视,因为我国宪法中的基本权规范蕴藏着丰富的价值资源。尽管无法被法官直接适用,但将其外显表达和内蕴价值注入人工智能法原则体系,就可以通过适用具体领域法的方式落实宪法秩序,用“宪法对齐”克服“人工智能错位”(AI misalignment)。基本权教义还能为抽象性原则建立适用标准与方法,确保其外延被限制在基本权客观价值范围内,进而排除裁量恣意。遗憾的是,目前的法律原则建构方案“似乎对宪法确认的公民基本权利的保护问题很少直接提及”。实际上人工智能法基本原则的建构无需另起炉灶,而应将基本权作为其必须依照和遵循的价值资源库。
例如,《中华人民共和国宪法》(以下简称《宪法》)中的人格尊严条款是人权保障的基础,不少部门法都设置了人格尊严受法律保护或不得被侵犯的规定以贯彻宪法客观价值(如《中华人民共和国民法典》第109条)。将人工智能法与人格尊严条款对齐的意义更为重大,因为人工智能(尤其是代理式人工智能)产生了“反客为主”的威胁。如果放任自流,那么人工智能将不再是知识论问题而是存在论问题,而人格尊严条款的价值原点就是保障人的主体性、强调人之价值的至上性。又如,《宪法》中的平等权规范包含丰富的价值要素,包括一般平等、实质平等、禁止歧视和逆向歧视等。将人工智能法与平等权对齐具有重要价值,因为信息收集和数据聚合存在的价值缺陷导致人工智能容易成为天然歧视系统,会重现甚至放大现实中的不平等。更棘手的是,一些人工智能歧视在统计和精算学意义上确实能提高效率进而具有表层合理性(如通过抽取过度的相关关系评价个人信用的人工智能模型可能更精准),但一旦违背了反弱势者歧视、反性别歧视等平等权价值,则皆应被禁止。不得提出效率抗辩或者解释为算法偏差、人工智能幻觉来逃避责任,因为基本权具有底线性和不可量化性。
综上考虑,笔者提出如下与宪法基本权对齐的法律原则设计建议:
第一,人格尊严保障原则。开发、提供和使用人工智能应当以人为本、智能向善,不得侵犯人格尊严(价值渊源为人格尊严)。
第二,人类监督和控制原则。人工智能开发者、提供者应当确保人类始终有效监督和控制人工智能,保障个人的自主决策自由(价值渊源为人格尊严、精神自由)。
第三,平等原则。开发、提供和使用人工智能应当遵循平等原则,不得基于民族、性别、年龄、家庭、宗教信仰等事由实施不合理的区别对待(价值渊源为平等权)。
第四,隐私和个人信息保护原则。开发、提供和使用人工智能应当充分保障个人信息权益和通信自由,任何组织、个人不得利用人工智能技术从事侵害个人信息权益和通信自由的行为(价值渊源为人格尊严、通信自由)。
第五,劳动保障原则。国家应当积极应对人工智能对就业的影响,通过各种途径创造劳动就业条件、进行就业培训,保障公民的劳动权(价值渊源为社会经济权)。
2.增设硬性条款:引入“人在环上”型规制
人类为应对未知风险积累了大量硬法工具,两部人工智能法专家建议稿都有移植,包括披露、评估、报告、标识等规制工具。但不足之处在于:上述诸工具更注重让“人在环中”(Human-in-the-Loop,HITL),缺少“人在环上”(Human-on-the-Loop,HOTL)的监督逻辑。“人在环中”型规制通过应用信息披露、标识、评估等工具让人类能够实时介入人工智能决策(如驾驶员对智能决策的实时调整),而“人在环上”则强调人类对系统整体的全局性监督和终局性控制(如对自动驾驶的远程紧急制动)。引入以下“人在环上”型硬规范,能捍卫人类中心主义,也让人工智能法与底线法地位相称。
一是切断开关条款。具有递归自我改进能力的人工智能有可能脱离人类控制而出现博斯特罗姆“回形针”思想实验所隐喻的文明风险。《北京AI安全国际共识》明确提出禁止自主复制或改进型人工智能,对其设置切断开关已获得一定共识。实际上,“开关”这类“人在环上”工具并不是新事物,生物学者研究的防止合成病毒失控的“自杀基因”就是一例。除了具有递归改进能力的显意识人工智能之外,笔者认为具有操纵性质的潜意识人工智能也应纳入“开关”的控制范围。因为前者通过破坏人类物理世界的方式威胁人的生存,而后者通过入侵大脑潜意识、操纵思想的方式破坏人类精神世界进而威胁人的存在。欧盟《人工智能法》就明确将搭载潜意识技术或操纵性质的人工智能列为不可接受的最高风险类别。不过开关条款的安全、有效运作不能仅寄望于简单设置一个类似谷歌深度思维公司(DeepMind)提出的“红色按钮”,而是应当进行体系化设计,囊括探测和预警、多元利益主体评估和决策(判断何时启动)、多层次的开关执行机制(判断关闭特定功能、单一模块抑或直接熔断整个系统)、风险解除后的恢复措施、外部审计和监督等规范内容。
二是风险管理条款。我国已建立了风险评估制度(如《算法推荐规定》第24条规定的算法自评估),这是“人在环中”型工具;即相关义务主体是“环中”的执行者,对算法歧视、安全风险、科技伦理等进行微观审查。与之相对的是作为“人在环上”型工具的风险管理制度,其综合应用包括测试、检验、备案、许可、认证等在内的规制工具箱,实现对相关风险的全生命周期管控,让相关义务主体站在“环上”监控全流程。“风险评估”往往缺乏约束性,如《人工智能法(学者建议稿)》第42条允许人工智能开发者、提供者自行评估,本质上是一种软法性质的反身法模式。而“风险管理”则综合采用事前测试和验证、事中监测、事后备案、具有法律后果的声明或承诺、签发强制性认证等一系列刚性规制工具。欧盟《人工智能法》就建立了被称为“符合性评估”(conformity assessment)的风险管理制度,但其照搬套用了欧盟产品法的质量管理思路,可能只适用于产品类人工智能或作为产品组成部分的人工智能而对独立人工智能系统无法通约,因为后者产生的侵犯人格尊严等基本权风险无法被转化为可量化的产品风险。欧盟也意识到此问题,采取让独立人工智能系统提供者自我评估的策略,却又造成对“涉及基本权风险的人工智能”之规制竟然比对“涉及产品风险的人工智能”之规制更宽松的颠倒现象。我国未来的统一立法应努力构建对产品和非产品类人工智能系统都能一体化适用、超越产品法思路的“人在环上”型风险管理机制。
三是冗余系统条款。当发生安全事件时,要求相关义务主体及时采取处置措施,是一种“人在环中”型规制;而要求一旦发生故障就会引发重大风险的关键设施的运营者在事前配置冗余系统,则是“人在环上”型规制。比如,极端天气导致关键智能系统瘫痪,备用系统旋即启动以避免更严重的次生损害,此即冗余原理。环中的处置措施可能因信息偏差、问责真空和监督不足而在执行上打折扣,但冗余义务是独立于环的、客观化的,甚至是系统运营的前置条件,故而难以被规避。为避免冗余条款成为一种针对中小企业的进入壁垒,人工智能法应明确此“人在环上”型规制只适用于具有关键设施属性的人工智能,如嵌入金融或医疗系统的基础大模型、浮点运算量或训练成本超过一定阈值的高影响能力模型。在可行性方面,提高关键人工智能冗余能力的成本并不会太高,因为其研发成本高但边际复制成本较低。未来技术的发展还可能允许开发者、提供者搭建针对不同功能、模块或架构的精细化冗余,从而以更小成本提高系统整体的鲁棒性。
3.强化法律问责:完善梯度问责机制
硬法的不在场导致现有人工智能规范正在创造“无责任空间”,这同时体现在对被规制主体的问责(向下问责)、对规制主体的问责(向上问责)以及对自我规制的问责(向内问责)三个方面。规制多元主义时代,不能把问责简化为惩罚问题,而是应当通过一系列硬性制度安排明确不同角色主体为何负责、对谁负责、如何负责,从而克服乌尔里希·贝克所说的风险社会中“有组织的不负责任”难题。
在向下问责方面,《内容标识办法》《深度合成规定》等过于依赖引致条款,但引致何种“有关规定”又暧昧不明。人工智能问责问题本就是涉及数据采集者、清洗者、标注者、供应者、算法设计者以及模型开发者、提供者等复杂主体的“多手问题”,引致适用模糊不清的他法责任而本法责任缺失的做法加大了问责难度。未来的统一立法应规定“行政责任一般条款”以明确本法责任,即明文规定违反本法规定的,由人工智能主管部门给予处罚(包括责令暂停相关功能或服务、限期整改、罚款、没收违法所得、警告、信用减等、吊销许可或证照等)。为实现软硬法的贯通,还可以设置幅度罚款制(如上一年度营业额5%以下的罚款),将违法者是否遵守相关标准、自我规制体系是否健全、是否采取减少损失的措施、监管缓释或承诺协议履行情况等纳入处罚幅度的裁量因素中。除了行政责任外,具有场景信息优势的侵权责任也应发挥风险分配功能。为适应行为人消失、因果链条断裂、损害难以预测的风险社会,侵权法用严格责任积极管控超越微观危险的社会化风险。此制度逻辑依然适配人工智能领域,引入严格责任实际等同于为高风险人工智能建立一种依托司法实施的强制保险制度,也与底线法定位相称。一种担忧认为,严格责任可能加重人工智能企业的负担,尤其构成中小企业进入人工智能行业的“责任墙”。但严格责任的适用领域(主要针对完全自动驾驶L5级、具有伤害性的具身智能等异常危险源)、赔偿范围(主要针对物质性损害)等受到严格限制,不仅不会扼杀初始创新,还能鼓励“负责任的创新”。对于高风险人工智能,具有巨大技术和信息优势的提供者始终处在风险控制的最优位置,适用严格责任也符合最小成本预防者原则。
在向上问责方面,政府在人工智能治理中扮演着关键角色,完善对其问责的机制能够有效防范两类附属性风险。一类是政府主体内嵌到人工智能技术链而成为提供者或使用者,并因违反安全保障、检测、标识、备案、评估等强制性义务而引发损害的风险。此时政府主体与市场主体并无轩轾,都应为致害行为担责。不同的是,前者适用行政处分等方式且主观归责门槛更低。例如,如果引发损害的行政决策由人工智能作出,即使行政机关无法预知和预测(即无过错),也需要担责。这是因为现代行政已从权威主义向辩护主义变迁,追求“最善选择”的行政决策权不能让渡给追求“最优选择”、剥夺相对人对话权利的自动化决策系统。另一类是政府主体从外部干扰人工智能产业链而发生的官僚偏移、与民争利、行政垄断等风险。统一立法要确保能对破坏人工智能统一大市场、实施行政垄断、违反公平竞争审查规定的行政主体进行有力问责。
在向内问责方面,两部专家建议稿都用到大量自我规制工具(如要求人工智能开发者或提供者建立安全制度、制定基础模型的使用规则等),但大企业劫持、集体协调困境、执行软弱等因素会导致自我规制失灵。对此,可引入下列规则贯彻“元规制”理念,对自我规制进行规制。一是明确未建立或怠于建立自我规制体系或者未勤勉运营自我规制体系的法律责任。值得借鉴的立法模式是《中华人民共和国安全生产法》第101条,其明文规定对未建立事故隐患排查治理制度的生产经营单位予以处罚。福冈真之介亦指出,政府可以通过提供中间政策克服人工智能自主规制的不完善性,即鼓励民间团体和企业制定和遵守自主规则,同时对不制定和遵守行为进行事后制裁。二是建立让软标准硬化的制度端口,包括违反特定人工智能标准就推定构成过错、不遵守特定标准被认定违反商业道德、直接赋予通过审查的特定标准具有法律效力、政府采购或科研资助要求相关人工智能项目须符合特定标准等。三是采取如下举措把“软沙盒”变成“硬沙盒”:建立主动移除与被动退出相结合的出盒机制、沙盒测试进展定期公告、测试效果第三方评估等。