摘要:在科技竞争与规则博弈的双重驱动下,全球人工智能立法呈现多元化趋势。欧盟率先通过统一的人工智能法,确立基于权利保护的风险规制模式;美国则展现出联邦层面的去监管化倾向,以及州级立法、行业自律与国际标准补位的治理格局;韩国、日本与印度则依据各自技术基础与治理需求,探索更加多元化的立法路径。当前,中国以国家战略为引领,政策统筹、专项立法与地方探索协同并进,逐步形成统筹发展与安全、靶向治理与机制协同的渐进式立法模式。面向未来,中国人工智能立法应系统回应“是否立法、何时立法、立什么法、如何立法”等关键议题,遵循“促进法—基本法—综合法”的三阶演进路径,构建契合国情、具备技术适应性与国际竞争力的人工智能治理体系。
关键词:人工智能立法 人工智能法 立法路径 立法模式 渐进式立法
一、问题的提出
人工智能作为引领新一轮科技革命和产业变革的关键技术,正在深刻重塑全球经济结构、社会关系与治理体系。在带来创新机遇与效率跃升的同时,人工智能也面临着诸如隐私侵犯、算法歧视、数据滥用、责任归属不清等多维度的法律与伦理挑战。人工智能立法作为社会价值的权威化表达,正在成为世界各国和地区应对技术变革与社会风险、构建规范性治理体系的重要制度安排。
欧盟以基本权利保护为核心,通过统一立法确立了基于风险分级的规制模式;美国在联邦层面展现出去监管化倾向,由州级立法、行业自律和国际标准实现规制补位;韩国、日本、印度则依据本国技术基础与治理需求,探索多元化的立法进路。中国在国家战略引领下积极推进人工智能治理体系建设,初步形成了以政策统筹、专项立法、地方探索为主要特征的治理模式。这种人工智能立法的多元趋势不仅反映了各国在技术实力、法律传统与治理理念上的差异,也在客观上加剧了全球人工智能治理的规则竞争。正如有学者所言:“哪个国家能率先发现并确立基本规则,哪个国家就有可能引领人工智能法整体范式变革。”
在国际科技竞赛与规则竞争双重博弈的背景下,中国人工智能立法应系统回应“是否立法、何时立法、立什么法、如何立法”等关键议题。有鉴于此,本文在梳理全球人工智能立法多元化趋势的基础上,尝试揭示我国人工智能立法的演进逻辑与制度特征,提出“促进法—基本法—综合法” 的渐进式立法路径,以促进人工智能安全健康发展,为构建具有中国特色、面向未来的人工智能治理体系提供理论支撑与实践参考。
二、全球人工智能立法的多元趋势
全球人工智能立法呈现出路径分化、模式多元、功能异构的趋势,反映出全球人工智能治理正在进入“制度竞争”与“范式碰撞”的新阶段。
(一)欧盟模式:统一立法下基于权利保护的风险规制
欧盟2024年正式通过的《人工智能法》,是全球首部统一的人工智能法。通常认为,《人工智能法》采取了“基于风险”的规制模式,事实上,欧盟模式的核心是将基于风险的分层治理机制嵌入其长期以来强调的“人本价值导向”与“基本权利保护”框架之中。换言之,欧盟立法中的 “风险”并非抽象的技术风险,而是以对人的尊严、平等、自由等基本权利的潜在威胁为风险等级判定标准,进而实施不同的治理策略。
首先,在“不可接受风险”人工智能系统的规制方面,《人工智能法》第5条明确列举八类被禁止的人工智能系统,其禁止依据正是这些系统对基本权利构成根本性威胁。例如,禁止操纵潜意识或利用脆弱性影响决策(第1款a、b项),防止侵犯个体意志自由;禁止社会评分及歧视性待遇(第1款c项),维护人格尊严与平等;禁止基于性格特征预测犯罪风险的执法(第1款d项),防止刻板印象与偏见推断;禁止通过无差别抓取网络或监控图像建立面部识别数据库(第1款e项),回应隐私保护与监控滥用风险。此外,还禁止在教育、工作等场景使用情绪识别(第1款f项),基于生物特征推断敏感信息(第1款g项),以及特定条件下在公共空间部署实时远程生物识别系统(第1款h项)等。这一系列禁止性规定确立了“禁止即保护”的立法逻辑,彰显了通过法律手段划定人类尊严与自由不可逾越底线的制度立场。
其次,在“高风险”人工智能系统的规制方面,《人工智能法》第6条结合附件三列明了具体适用领域,如教育招生、就业招聘、执法识别、司法辅助等社会关键领域,只要人工智能系统的预期用途对自然人健康、安全等基本权利具有重要影响,即被纳入高风险类别,必须履行严格的合规义务。这些义务包括建立覆盖系统全生命周期的风险管理机制(第9条)、确保数据的相关性、代表性与去偏见标准(第10条)、完善技术文档与自动记录机制(第11条、第12条)、确保透明度(第13条)、设立有效的人类监督机制(第14条),并在准确性、稳健性与网络安全方面达到规定标准(第15条)。需要特别指出的是,《人工智能法》第27条还引入了“基本权利影响评估”制度,要求在部署特定高风险人工智能系统之前,相关主体必须对其可能带来的基本权利影响进行系统性评估。评估内容包括:说明系统的预期使用流程、使用频率与期限,识别可能受影响的自然人或群体类别,结合第13条所提供信息分析潜在危害风险,说明人工监督措施的实施情况,以及在风险发生时拟采取的应对措施。“基本权利影响评估”制度体现了欧盟将基本权利保护贯穿于人工智能系统设计、开发、部署全过程的治理理念。
总体而言,欧盟人工智能立法基于基本权利保护这一价值引领,对不同等级的人工智能风险进行分层治理。所谓“基于风险”的规制模式,本质上是以“对基本权利的潜在威胁”为风险等级认定标准,通过预防性控制实现对“人本价值”的守护。欧盟的统一立法路径具有一定制度优势:一是率先推出《人工智能法》,在全球规则制定中抢占先机,提升了国际话语权;二是系统性立法有助于防止成员国之间标准割裂与执法冲突,增强规则统一性与可执行性;三是强调基本权利导向,有利于提升公众信任与社会接受度,为人工智能技术的可持续发展提供价值基础。然而,该模式也存在局限,“不具有普适性,很难借鉴”。一方面,其高标准、强约束的合规要求可能加重企业特别是中小企业的研发负担,抬高创新门槛;另一方面,制度设计过于规范化、程序化,可能难以应对技术快速演化带来的动态风险,缺乏足够的灵活性与适应性。也正因如此,欧盟的《人工智能法》未能如《通用数据保护条例》一样,在世界范围内产生“布鲁塞尔效应”。
(二)美国模式:联邦去监管化趋势下的多元规制补位
相较于欧盟人工智能立法强调统一规范与基本权利保护,美国联邦层面则展现出明显的去监管化倾向。自2016年奥巴马政府发布《国家人工智能研究与发展战略计划》以来,美国联邦政策始终侧重于通过研究资源整合、人才培育和技术标准建设推动人工智能发展,而非确立具有法律约束力的规制框架。2019年《保持美国在人工智能领域的领导地位》的行政命令,明确将人工智能列为国家战略重点,治理工具以财政支持、资源配置和伦理框架为主导。2022年《芯片与科学法案》进一 步加大对人工智能基础研发与产业发展的财政投入,以巩固美国的技术主导地位。2025年,特朗普政府重新执政后废除了拜登政府发布的《关于安全、可靠和可信地开发和使用人工智能的行政命令》,重申“减轻监管负担、保护创新自由”的政策导向。《人工智能权利法案蓝图》和《人工智能风险管理框架》等文件虽然提出了若干伦理原则与治理建议,但均不具备法律效力。
在联邦层面去监管化的背景下,部分州率先采取立法行动,填补规制空白。科罗拉多州于2024年出台了《人工智能消费者保护法》(Senate Bill 24—205),又称《科罗拉多人工智能法》,是美国首部系统性规制高风险人工智能的州级立法。该法以防止算法歧视、提升系统透明度为核心,明确开发者与部署者在人工智能运行过程中负有合规义务,要求其采取“合理谨慎措施”以防范已知或可合理预见的算法歧视风险。有学者指出,该法在结构上与欧盟《人工智能法》类似,均采取风险分级监管模式,并强调高风险人工智能的透明度与责任机制。但相较于欧盟侧重基本权利保护与市场准入门槛,科罗拉多州立法更突出消费者导向,通过细化开发者与部署者的“合理注意义务”并列举其履行义务(如风险评估、信息披露与影响报告)的具体情形,增强了法律的可操作性与执行确定性。
加利福尼亚州作为位于技术创新前沿的关键州,于2024年通过了17项与人工智能相关的法律,涵盖深度伪造治理、训练数据透明、医疗场景中的人工智能提示义务以及生成内容的可识别性标识等关键议题,回应了社会对人工智能技术滥用风险的高度关注,体现出其在应对人工智能潜在风险与促进负责任技术发展上的坚定立场。例如,AB 2355法案聚焦于防范人工智能生成的深度伪造内容干预选举程序;AB 2013法案则要求生成式人工智能开发者在其官方网站披露用于模型训练的数据来源,以提升系统透明度与公共监督;AB 3030规定医疗保健提供者在使用生成式人工智能与患者沟通时,尤其在涉及临床信息的场景中,须明确告知其使用人工智能生成内容的事实;SB 942则强制要求人工智能生成内容添加水印,以便区分人工与机器生成的信息。同年,犹他州亦出台了《人工智能政策法案》,聚焦生成式人工智能的透明度义务、责任承担与创新监管,要求特定行业在与消费者互动中明确披露AI身份,并禁止企业以AI为由规避法律责任。该法案设立人工智能政策办公室与人工智能学习实验室项目,推动监管沙盒计划以实现创新与治理的动态平衡。2025年,犹他州进一步通过SB 226和SB 332对《人工智能政策法案》进行修订,并通过HB 452为心理健康聊天机器人制定专项规范。
除州级立法外,美国大模型开发企业及其从业人员展现出一定程度的自律意识。2024年8月,OpenAI和Anthropic与美国国家标准与技术研究院(National Institute of Standards and Technology,NIST)下属的人工智能安全研究所签署了合作协议,允许该研究所在新模型发布前后进行安全研究、测试和评估。与此同时,来自OpenAI、Anthropic、Google DeepMind和Meta的120多名员工联合发表声明,呼吁加州州长签署《前沿人工智能模型安全与创新法案》(SB 1047),支持建立人工智能安全评估机制和国家级监管机构,以避免大模型在选举干预、信息操控、深度伪造等领域的滥用。这些行动表明,在联邦层面立法滞后的背景下,技术企业及从业者正通过推动地方立法与加强行业自律,积极填补治理空白,主动参与人工智能安全治理与风险防控。
美国积极推动以技术联盟和标准联盟为核心的产业合作,强化其在前沿人工智能领域的全球影响力。技术联盟方面,OpenAI、Anthropic、Meta、Google等领先企业与美国政府机构建立了多项合作关系,部分企业还与美国军方及其盟友合作开发前沿人工智能技术,用于提升国家防御能力。标准联盟方面,美国实质性主导多个国际人工智能标准组织。由国际标准化组织(ISO)与国际电工委员会(IEC)于2018年设立的ISO/IEC JTC1/SC 42,是全球首个专责推动人工智能标准化的技术委员会,涵盖术语定义、治理架构、数据质量与可信度评估等关键领域。尽管该委员会为多国参与的国际平台,但美国在其中扮演着核心角色。作为ISO体系中美国的代表机构,美国NIST深度参与标准制定过程,并主导或协同主持多个核心工作组,在技术方向制定与标准议题推进等方面具有高度主导力,使其在全球人工智能标准体系构建中占据关键地位。同时,总部设于美国的电气与电子工程师协会(IEEE),由美国科研与产业界广泛支持并主导,推动制定了包括IEEE 7000系列在内的多项人工智能伦理与技术标准,涵盖算法透明性、数据治理、人机接口伦理与风险评估等重要领域。这些标准不仅成为美国本土人工智能研发的重要依据,也在全球范围内被广泛采纳,持续扩大美国在国际人工智能治理中的制度影响力与标准主导力。
总体来看,美国人工智能治理“松绑-补位”的二元结构,展现出联邦层面的去监管化倾向,以及州级立法、行业自律与国际标准补位的治理格局。该模式在鼓励技术突破、促进治理试验与维护企业活力方面具有明显优势,亦面临多重挑战。一是联邦层面法律长期缺位导致治理碎片化,州际标准不一、执法不均,显著放大企业合规成本;二是在高风险应用场景中,行业自律难以形成有效约束机制,特别是对科技巨头的制衡有限,数据滥用、算法歧视、虚假内容等问题频繁暴露,亟须更强的外部监管介入;三是美国将人工智能治理与国家安全和地缘政治深度绑定,强化技术封锁、产业控制与标准输出,虽提升了其国际竞争力,却也引发他国对其“数字霸权”与“科技封锁”的警惕与批评,削弱其在全球人工智能治理中的合法性。
(三)亚洲模式:韩国、日本与印度的多元探索
在欧盟确立以基本权利保护为核心的严格风险规制模式、美国坚持以促进发展为导向的宽松监管模式之间,亚洲部分国家则展开多元探索,呈现出立法路径与治理逻辑的多样化与差异性,体现出在全球治理格局中寻求本土适应性与制度创新的努力。
韩国于2024年12月正式通过《人工智能发展及信任基础建立基本法》(又称《人工智能基本法》),成为继欧盟之后全球第二部统一的人工智能法。该法确立了“促进产业发展”与“构建可信环境”的双重目标,既强调政府对人工智能研发和产业化的扶持责任,也注重建立技术标准、伦理规范与风险评估机制,力图在鼓励创新与防控风险之间取得平衡。针对对生命、安全或基本权利具有重大影响的“高影响人工智能”,该法未采取一刀切的禁用策略,而是通过风险管理机制予以规范引导,旨在降低监管不确定性,建立系统化的政策支持体系,从而激励本土人工智能生态的发展,并提升韩国在全球规则制定与技术竞争中的地位。在治理架构上,韩国于同年9月设立直属总统的国家人工智能委员会,作为协调国家人工智能政策的公私协作机构,强化中央政府的顶层设计能力,同时吸纳产业、学界与社会各方参与,体现出协同治理与战略统筹并重的制度取向。
日本于2025年5月正式通过的《人工智能相关技术的研发及应用促进法》,成为全球首部以“促进人工智能创新发展”为核心目标的人工智能促进法。该法旨在构建一个最有利于人工智能研发和应用的国家治理框架,强调由政府主导战略规划,设立首相领导的人工智能战略本部。在监管理念上,坚持“轻监管、促发展”的导向,不设处罚性条款,而是通过行政指导、政策建议以及“点名通报”等方式应对潜在风险,同时建立覆盖基础设施、科研资助、人才培养与国际合作的系统性政策支持机制。该法还鼓励地方政府根据区域优势制定本地AI振兴计划,推动政策多层次落地。为促进行业自律与标准建设,法律支持各行业结合自身特点制定伦理准则与安全规范,并提出构建开放式测试与验证平台,以加强人工智能系统的风险评估与安全验证能力。整体来看,该法体现出日本促进人工智能发展的坚定信念,力图在维护基本秩序的同时最大限度释放创新活力。
印度在人工智能发展方面潜力巨大,采取了务实的治理策略。2018年,印度政府发布《国家人工智能战略》,提出“负责任的AI”原则,强调安全性、公平性、隐私保护与透明度等核心价值。目前,印度尚未出台专门的人工智能立法,主要依赖《信息技术法》《数字个人数据保护法》《消费者保护法》《版权法》等现行法律对人工智能相关的隐私侵犯、数据滥用、消费者欺诈与知识产权问题进行基础性规制。对于是否制定专门法律,印度政府始终持谨慎态度,2023年4月明确表示“目前无意制定人工智能相关法律”。与单一立法路径不同,印度正在加大对以人工智能为核心的安全技术体系投入,资助包括印度理工学院在内的顶尖高校开发应对深度伪造、隐私泄露与网络安全风险的技术方案,走出一条“技术—法律”结合的治理路径。
三、中国人工智能立法的路径开释
中国的人工智能立法并非一蹴而就,而是在国家战略的总体引领下,逐步形成以政策指引为先导、以专项法规为支撑、以地方实践为补充的多层次治理格局。目前,专项立法和地方探索持续积累制度经验,为未来推进统一立法进程提供有力支撑。
(一)国家战略的政策引领
中国人工智能治理以国家战略为引领,自上而下推动人工智能政策体系的搭建。2017年,国务院发布《新一代人工智能发展规划》,首次将人工智能上升为国家核心战略,提出“三步走”发展目标,明确到2030年建成世界主要人工智能创新中心。该规划不仅制定了技术发展的时间表与路线图,也为法律规制与制度建设奠定了政策基础,提出制定法律法规与伦理规范、构建安全监管与风险评估体系,推动技术、产业与治理机制协同发展。在该战略统领下,国家发展改革委、科技部、工业和信息化部、网信办等部门先后出台《促进新一代人工智能产业发展三年行动计划(2018—2020年)》《新一代人工智能治理原则——发展负责任的人工智能》《新一代人工智能伦理规范》《国家新一代人工智能标准体系建设指南》以及《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》等政策文件,围绕技术创新、应用推广、标准制定与伦理治理,构建起覆盖研发支持、场景应用、安全管理与价值引导的综合性政策体系。
(二)专项立法的靶向治理
在顶层设计不断释放引导信号的同时,中国逐步通过“专项立法”实现人工智能的“靶向治理”,形成了内容上精细化、制度上去中心化的“功能性规制图谱”。在算法规制方面,2022年出台的《互联网信息服务算法推荐管理规定》确立了公正、透明、合理的基本原则,强化算法服务提供者的主体责任,要求建立审核评估、备案分类等机制,同时赋予用户知情权、选择权与标签管理权,并设立多层次责任追究体系,防止算法滥用。在深度伪造与虚假内容治理方面,2022年出台的《互联网信息服务深度合成管理规定》针对“AI换脸”“语音克隆”等技术滥用问题,设立技术标识与显著提示双重义务,推动治理从“事后应对”向“事前预防”转型。在生成式人工智能服务治理方面,2023年出台的《生成式人工智能服务管理暂行办法》为大模型应用设立了首部专项规制立法,构建包容审慎、分类监管框架,涵盖训练数据、算法审查、服务标识、内容安全与用户权益等义务,强化内容责任与跨部门协同监管。2025年,《人工智能生成合成内容标识办法》进一步完善内容标识制度,要求提供者在文本、图像、音视频等生成内容中同步嵌入显式与隐式标识,平台亦须履行核验义务,构建从源头到传播环节完整的标识链条,提升了生成内容的可识别性与可追溯性。除专项规制外,公安、交通等行业主管部门亦发布相关规章与标准,如《人形机器人创新发展指导意见》《国家车联网产业标准体系建设指南(智能交通相关)》及《智能网联汽车自动驾驶数据记录系统》(GB 44497-2024),强化安全控制、伦理合规与数据记录要求,已在实践中发挥准法律作用,为未来正式立法奠定基础。
(三)地方层面的立法探索
在国家战略引领与专项规制之外,地方立法正成为推动中国人工智能法治建设的重要支撑。深圳于2022年出台了《深圳经济特区人工智能产业促进条例》,作为中国首部地方性人工智能法规,围绕基础研究、产业设施、应用拓展与风险治理等方面作出系统安排,确立以科技引领、应用驱动、以人为本、安全可控为核心的发展原则,创新性引入人工智能伦理委员会与分级分类监管机制。同年,上海市通过了《上海市促进人工智能产业发展条例》,系统构建以人为本、科技向善、创新驱动、市场主导的发展格局,强化算力、算法、数据三要素保障,推动集群化、国际化与场景化融合发展,设立应用开放机制与伦理治理框架。北京市则于2023年出台《北京市促进通用人工智能创新发展的若干措施》,作为政策性指导文件,聚焦算力统筹、高质量数据供给、大模型体系建设与重点领域应用推广,构建了兼顾创新支持与审慎监管的政策体系,成为全国首个专门面向通用人工智能的地方专项政策。以深圳、上海、北京为代表的地方性立法和政策,既发挥了制度创新“试验场”的作用,也为国家统一立法积累了实践经验。
(四)统一立法的筹备推进
随着规制对象日益增多、规范之间的衔接压力加大,关于制定统一的人工智能法的呼声日益高涨。特别是在地方与中央规范体系日益复杂、各类软法文件并存的背景下,如何通过统一立法实现原则统一、结构整合与制度协调,成为理论与实务界关注的焦点。需要指出,本文所称“统一立法”,包括但不限于“大而全”的综合法典,还包括具有一定统领性和普遍适用性的其他法律制度安排。
自2023年以来,学界已发布多部人工智能法专家建议稿,如中国社会科学院法学研究所周辉研究员等牵头起草的《人工智能示范法(专家建议稿)2.0》和中国政法大学数据法治研究院张凌寒教授等联合发布的《人工智能法(学者建议稿)》。前者提出以人为本、透明可问责等原则,构建发展支持体系,设立负面清单和许可备案制度,并明确研发者的安全性与伦理义务,同时关注降低合规成本、支持开源生态,规范训练数据与生成内容保护。后者则以九章九十六条系统涵盖发展促进、权益保障、安全义务和国际合作,强调对人的尊严与隐私的保护,提出知情权、拒绝权及对数字弱势群体的特别保护,并引入风险评估、监管沙盒和分级分类机制,力求在安全与创新之间取得平衡。尽管两者在内容上存在差异,但均体现出旨在通过一部综合性法律实现发展促进、风险治理与权利保障等多重目标的制度期待。
从国家立法计划来看,2024年《全国人大常委会立法工作计划》提出“研究人工智能健康发展的立法项目”,《国务院2024年度立法工作计划》则明确将人工智能法草案列入拟提请全国人大常委会会议审议的预备项目,表明人工智能统一立法已从理论构想迈入立法实践的关键阶段。然而,随着2025年美国特朗普政府上台后在人工智能领域推行去监管化政策,以及我国大模型技术实现突破性发展,人工智能立法面临新的国际局势。在此背景下,今年全国两会期间,全国人大常委会并未延续此前审议人工智能法草案的计划,而是表明“围绕人工智能、数字经济、大数据等新兴领域加强立法研究”。这一变化在一定程度上表明,我国在推进人工智能立法进程中,正在审慎评估国际动态与国内技术发展,力求在促进创新与规范治理之间寻求更为灵活、稳健的立法路径。
(五)中国路径的基本特征
整体来看,中国人工智能立法展现出战略引领、专项立法、地方探索、审慎推进的多元协同特征,既体现出积极构建规范体系的制度主动性,也兼顾了技术快速演进与国际竞争格局变化下对制度韧性与弹性的现实要求。首先,中国人工智能治理的起点并非直接立法,而是以《新一代人工智能发展规划》等国家战略为统领,优先构建发展导向、伦理引导与风险防控并重的政策体系,通过顶层设计为后续立法奠定基础。其次,体现出靶向治理的专项规制特征,采取“小切口、分领域” 的方法,围绕算法推荐、深度合成、生成式人工智能服务、内容标识等重要议题,建立精细化的治理规则,及时应对技术发展带来的具体风险。再次,突出“地方探索—全国推行”的制度演进机制。深圳、上海等地通过地方性立法和政策创新,在伦理治理、产业培育和应用拓展方面积累了有益经验,为国家层面统一立法提供制度样本和实践经验,形成了中央统筹、地方试验、上下联动的治理格局。最后,体现出以动态调整应对技术发展不确定性的审慎推进逻辑。在全球科技竞争与国内技术迭代加速的背景下,中国在推进统一立法进程中保持灵活应变、稳步前行的策略,努力在促进创新与强化治理之间寻求动态平衡,展现出高度的战略敏感性与制度适应力。
四、构建人工智能立法的中国模式
在全球人工智能科技竞赛与规则竞争日益激烈的背景下,中国亟须在促进技术发展与实现有效治理之间实现动态平衡,探索契合本国产业基础与治理实践的人工智能立法模式。中国人工智能立法应围绕以下几个关键问题展开系统谋划:第一,是否立法,即是否有必要通过统一立法回应人工智能带来的治理挑战与规范空白;第二,何时立法,即如何把握统一立法的适宜时机,避免过早介入而抑制创新以及过迟规制而错失治理良机;第三,立什么法,即应立何种类型的人工智能法,明确立法的功能定位与体系归属;第四,如何立法,即采取何种统一立法方式,在专项立法与统领性立法、软法与硬法之间实现有效协调。
(一)是否立法:回应技术变革与治理需求的制度必然
生成式人工智能等大模型技术,正在深刻重塑信息生成、知识生产、产业结构与国家治理等领域,嵌入到规则形成、价值分配和行为规范等治理核心环节,同时带来诸多风险与挑战。法律作为社会规范的基础制度,有必要填补规范空白,引导技术安全健康发展。
首先,从风险治理角度看,人工智能引发的“幻觉生成”“算法歧视”“黑箱决策”“数据滥用”“责任模糊”等风险,已超出现有法律的适用边界,挑战传统法律基于“行为明确、结果清晰、主体特定”的归责逻辑。由于这些风险具有滞后显现、归责链条复杂等特点,传统法律难以形成有效规制合力。欧盟《人工智能法》通过风险等级实现分级监管;美国NIST发布的《人工智能风险管理框架》,将风险评估与监测纳入全生命周期治理。以上国际经验表明,构建专门法律体系以实现风险识别、规则整合与责任协调,已成为全球人工智能治理的重点方向。
其次,从权利保障与社会公平角度看,人工智能广泛应用于就业、教育、医疗、司法等关键领域,其算法逻辑和数据偏见可能加剧社会不平等,损害弱势群体权利。同时,“数字鸿沟”问题也在扩大,部分群体在获取和利用数字资源方面处于不利地位。因此,构建系统性的人工智能法律框架,不仅是保护个体权利的需要,更是实现公共服务公平化与社会正义的制度保障。
再次,从国家战略与全球竞争角度看,人工智能治理能力已成为衡量国家制度竞争力的重要标志。当前,我国以部门规章、政策文件和地方探索为主导的治理模式,“面对人工智能问题仅能分散、碎片化适用”,在协调统一、规范衔接与法律约束力方面存在不足。若继续依赖碎片化管理与软性调控,不仅难以形成系统性制度供给,也难以在全球人工智能治理规则构建过程中掌握主动权。制定人工智能法不仅有助于提升治理体系的系统性和法治化水平,也是在国际规则博弈中提供“中国方案”的关键举措。
最后,从治理现代化角度看,人工智能正推动治理模式向数据驱动、模型分析和智能响应转型,深度嵌入公共管理、社会服务和司法执法等领域,对法律制度提出新的支撑要求。若缺乏相应的法律规范,将导致合法性基础薄弱、权责不清、执行失衡等问题,甚至加剧“治理赤字”。因此,推动人工智能统一立法,构建人工智能的法律治理体系,是推进“法治现代化中国模式”的题中应有之义。
(二)何时立法:避免过早规制与滞后治理的时机把握
人工智能技术的演进具有高度的不确定性与非线性特征,其发展路径难以完全预判,技术成熟周期、风险显现时点与社会接受程度常常存在时间错位。在这种背景下,立法时机的选择直接关系到制度供给的有效性与治理体系的适配性。立法过早,可能因技术路径尚未稳定、风险类型尚未清晰,而导致法律规范缺乏针对性与可执行性,进而抑制技术创新、影响新兴业态;反之,立法滞后,则可能在风险已形成、后果已蔓延的情况下失去规范与治理的窗口期,难以及时回应社会关切,甚至引发治理信任危机。
1. 技术演化的现实约束:避免“路径锁定”与“规制先验化”
从技术哲学视角看,技术演化并非受人的意志主导,而具有“效率驱动、自主演化”的内在逻辑。雅克·埃吕尔(Jacques Ellul)指出,技术本质上是在人类活动的各个领域中理性得出的、在特定发展阶段具有绝对效率的所有方法的总和;凯文·凯利(Kevin Kelly)亦认为,技术以自我衍生、递进的方式不断催生新的发明,这种演化使技术发展呈现出一定的不可逆性。许多技术发明在全球多个区域同时出现,正是这一逻辑的体现,说明技术的发展往往不是偶然事件,而是结构性与阶段性的历史结果。生成式人工智能目前仍处于Gartner技术成熟度曲线中的“高期望峰值期”(Peak of Inflated Expectations),其底层逻辑尚在快速演化,幻觉生成、可解释性差、数据依赖性强等核心难题仍未有效解决。此时若过早制定全面统一的人工智能法,可能因以当前技术为基准而陷入“路径锁定”,限制未来替代性技术的发展空间;同时也可能出现“规制先验化”问题, 即在风险尚未充分识别、问题尚未明晰之前提前设定制度框架,导致监管错配与法律适应性不足。 面对技术发展的高度不确定性与复杂性,人工智能立法应当择机而动,采取渐进式、包容性、反馈驱动的立法策略,契合技术发展不确定性的现实约束与治理体系的弹性需求。
2. 治理经验的实践基础:专项立法与地方探索的制度积累
科学的立法时机应以充分的制度积累与治理反馈为前提。近年来,我国在人工智能治理实践中逐步形成了专项规制与地方试验相互配合的分层推进格局。在国家层面,陆续出台了若干面向具体技术场景的专项法规,针对算法推荐、深度伪造、生成式人工智能等问题突出领域建立初步的制度响应机制,不仅有助于及时填补技术风险引发的监管空白,也为未来统一立法提供了可供借鉴的立法经验。与此同时,深圳、上海、北京等地在回应区域产业发展诉求的同时,积极推动地方性法律政策探索,呈现出多样化的制度工具与治理路径,为国家层面的制度整合提供宝贵经验。 总体而言,国家专项规制与地方立法试点已共同构成我国人工智能治理体系的重要组成部分,逐步积累从局部规范到系统建构的实践经验。在此基础上,适时启动以促进发展、规则整合为导向的统一立法,将有助于实现治理框架从碎片拼接向体系构建的转变。
3. 社会共识的价值底座:从伦理分歧到规范确认
人工智能立法不仅是技术规制工具,更承担着价值协调、利益分配、权利保护与伦理建构的制度使命。不同于传统工业技术,人工智能以其自主性、复杂性和渗透性深度嵌入信息传播、资源分配、身份识别与社会评价等核心机制,法律规制面临价值多元、理念冲突与伦理张力等挑战。目前,诸如训练数据合法性、生成物的著作权归属、数据产权性质、算法公平性评估、模型可解释性以及AI是否可被拟制为“数字人格”等关键议题,仍处于高度争议阶段。公众对算法逻辑、数据利用后果及潜在风险的理解滞后,信息不对称与认知分裂明显。在社会共识尚未充分形成的情况下,若立法介入并试图先行确立伦理边界,可能导致规范错配与制度空转,削弱法治回应的正当性与时效性。因此,中国推进人工智能统一立法,应建立在初步伦理共识和相对稳定的社会认知基础上,避免将立法简化为技术条文的罗列或价值强加的工具。应当通过科普传播与风险教育等方式,在社会层面培育理性认知与参与氛围,设立伦理评估、专家咨询与多元利益表达机制,促成各方在价值判断上的最低共识,通过程序的开放性与协商性提升立法的公众接受度与现实效力。
(三)立什么法:“促进法—基本法—综合法”的渐进路径
在明确人工智能立法的必要性与适宜时机之后,立法路径的核心问题转向“应当立什么样的法”。面对人工智能技术跨领域、多场景、多主体的特征,中国不宜一开始就制定一部全面综合的统一法典,而应循序渐进地推进人工智能立法进程。本文主张以《人工智能促进法》为先导,继而推动《人工智能基本法》作为制度母法,最终在技术发展与治理经验成熟之后制定统一的《人工智能法》。
1. 第一阶段:制定《人工智能促进法》
当前,以生成式人工智能为典型的人工智能一揽子技术尚处于技术高预期阶段,风险类型未稳定、伦理共识尚未达成,立法实践面临“概念不清、定性不准、理念不彰、范畴不明、脉络不畅”等诸多问题,若贸然制定“大而全”的统一立法,易导致技术路径锁定、规制错配与创新受阻。为此,人工智能立法的第一阶段应优先确立促进性制度路径,通过制定《人工智能促进法》,明确发展导向与统筹机制,引导技术演进与资源配置,整合政策工具,构建产业支持体系,并以软性机制嵌入伦理审议与风险监测,推动技术发展与制度供给协同演进。
《人工智能促进法》的统一性,不在于功能全面与形式集中,而是体现在价值共识确立、概念术语统一以及制度机制协同上:一是确立“安全、透明、公正、可控”等核心价值,统一治理方向,避免目标冲突;二是厘清关键术语与技术边界,奠定跨领域政策与立法的共同语言基础;三是设立发展战略、伦理审查与监管协同等统筹机制,强化制度衔接与协同运作。对此,《深圳经济特区人工智能产业促进条例》与《上海市促进人工智能产业发展条例》为全国性的《人工智能促进法》提供了重要的实践参考。深圳与上海的地方性立法不仅具有地方特色,而且在价值引导、概念统一与机制协同方面具有一致性,充分体现“促进法”作为引导性制度平台的功能。深圳强调“科技引领、应用驱动、以人为本、安全可控”,更侧重基础设施建设与场景开放;上海主张“以人为本、科技向善、市场主导”,更聚焦算力算法建设与全球协作,展现出地方的多样性实践。未来应在总结地方经验的基础上,确立统一价值目标、概念术语与协同机制,构建灵活、开放的治理架构,既为技术创新提供正向引导,也为后续基本法与综合法奠定制度基础。
2. 第二阶段:制定《人工智能基本法》
在《人工智能促进法》完成价值共识与发展统筹之后,立法进程应进入第二阶段,制定《人工智能基本法》。《人工智能基本法》作为“治理框架法”,侧重底线设定与规范统摄,其体系设计应坚持“原则性、结构性、协调性”,不拘泥于短期政策目标,也不试图详尽规制所有技术场景,而是致力于确立统一的底层法理与制度逻辑。在功能定位上,该法应完成三项核心任务:一是确立治理共识,明确“发展与安全并重”“以人为本”“风险可控”“可问责性”等核心价值原则,为各领域规制提供统一价值引导;二是划定权责边界,厘清国家、地方、平台、用户在人工智能生命周期中的职责分工,防止责任重叠或空缺;三是配置关键机制,建立监管协调、伦理审议、风险评估、责任边界与软法对接等制度安排,推动治理模式从单向规制走向多元协同。从图依布纳(Gunther Teubner)的“反身性法”理论出发,在高度复杂与不确定的技术环境中,法律应通过制度引导而非强制干预,促进社会子系统之间的自我调节与结构互动。在这一意义上,《人工智能基本法》应被视为一个动态适应的治理框架,通过程序设计与反馈机制吸纳地方试点、行业经验与国际规范,为未来综合性立法提供制度基础,其核心使命在于搭建人工智能治理体系的制度底座,而非承担最终规制功能。 这一阶段不仅为多元规制提供统一的价值共识与结构支撑,也为第三阶段《人工智能法》的系统整合奠定坚实基础。
3. 第三阶段:制定综合性的《人工智能法》
在人工智能技术日益成熟、主要风险类型基本明确、相关制度机制经过充分试验的基础上,立法进程将进入第三阶段,即制定综合性的《人工智能法》。该法区别于“统摄性蓝图”定位的《人工智能基本法》,其核心任务是整合前期制度成果,构建结构统一、规则协调、机制配套的治理法典,实现从制度构想到制度定型的跃迁。《人工智能法》应是一部具有高度组织性与可操作性的综合性立法,其目标并非“包打天下”,而是作为制度中枢,在保持体系开放与动态反馈能力的同时,统一整合数据治理、算法责任、风险评估、伦理审查、权利保障与跨境合作等关键规范内容,并与技术标准、实施细则、行业准则之间形成有效衔接,构建模块化、可拓展的制度体系。从体系功能上看,该法的出台将标志着中国人工智能治理进入制度成熟阶段,实现“从分散立法走向系统法治” 的关键跨越,也将为我国在全球人工智能治理竞争中提供独具特色的法律表达。通过“促进法—基本法—综合法”的渐进式立法路径,中国将在保持制度弹性的基础上完成规则闭环,为人工智能未来发展和国家治理现代化提供持续而有韧性的法治支撑。
(四)如何立法:人工智能立法的体系构建逻辑
在人工智能领域,传统法律已难以应对多元技术演化、复杂场景差异与动态风险类型交织的现实挑战。为实现有效规制与发展促进的双重目标,中国人工智能立法亟须在“如何立法”的问题上实现范式转换,确立一种以“分层统筹、程序嵌入、机制弹性”为核心的现代化制度建构逻辑。
首先,应确立“分层统筹”的制度结构逻辑。鉴于人工智能应用场景高度异质、风险类型复杂多样,人工智能立法不宜采取“大而全式”的立法进路,而应通过设定治理价值底线与原则性框架,统摄各类具体规制安排,在此基础上构建核心规则引领、专项规制配套、软法机制协同的多层次制度体系。在纵向维度上,应构建国家、行业、地方多级互动的立法体系,鼓励地方结合本地产业基础和应用需求,制定促进条例或试点政策,探索差异化制度路径;在横向维度上,“不宜将法律秩序等同于国家的强制秩序,规范多元应成为合作治理体系的结构特征之一”,应嵌入伦理指引、行业标准、技术规范等软法机制,增强法律体系的灵活性与适应力。这种分层协同、刚柔并济的治理架构,既可回应人工智能技术发展的动态性与多样性,也有助于推动规范体系的衔接与整合。
其次,应强化“程序嵌入”的治理意识。面对人工智能发展的高度不确定性与风险演化,仅依赖实体规则难以构建稳健治理体系,必须通过程序机制实现灵活应对。在立法阶段,应明确公众参与、专家咨询和多元协商程序,提升立法的公开性与科学性;在治理运行中,应设置程序披露、风险评估、定期审查等条款,增强制度的动态调整能力;在执法环节,应完善协同监管、平台履责与责任追究机制,提升执行效能。更重要的是,程序机制不仅提升治理灵活性,也为多元主体参与提供制度化路径,推动形成政府、企业、行业组织与公众共治的法治生态。正如有学者所指出的,治理应从算法设计源头嵌入“技术性正当程序”,通过程序代码化方式实现公开性、可解释性与责任机制,从而重塑正当程序的结构逻辑。应当注意,程序治理不应被简化为形式主义的程序设置,而应成为实现法治内在正当性、推动共治架构落地的重要支柱。
最后,应构建“时间—空间”双重弹性框架,增强法律适应性与治理韧性。在快速演化的技术环境中,法律不应被视为静态规则的集合,而应具备动态调整与制度演进的能力,预设“修正—退出—升级”机制。一是通过动态授权条款,赋予行政机关根据技术进展和监管需求及时制定或调整实施细则、技术标准等的权力;二是设立立法评估机制,定期评估法律实施效果,并据此推动条款优化与制度完善;三是推动监管沙盒制度的常态化运行,为新兴技术提供在受控环境下探索创新的空间,并在实践中积累风险识别与治理经验。
五、结论
在人工智能深刻塑造社会生产生活方式与国家治理机制的背景下,人工智能立法作为引导和规范技术发展的关键制度工具,已成为各国人工智能治理能力的重要标志。放眼全球,人工智能立法呈现出路径多元、取向各异的发展态势。欧盟通过统一立法确立了以基于权利保护为核心的风险分级治理模式;美国形成联邦去监管化以及州级立法、行业自律与国际标准的规制补位的治理格局;韩国、日本与印度等国家则在促进发展与规范治理之间探索多样化路径。这些差异背后,反映出各国在技术基础、战略目标、法律传统与治理理念等方面的差异与抉择。
中国在全球人工智能治理格局中,形成了一条兼具本土特色与制度理性的渐进式立法路径。自《新一代人工智能发展规划》确立国家战略起点以来,中国逐步通过专项规制应对关键风险、依托地方试点推动制度创新,并在统筹推进统一立法方面稳步前行,体现出“政策引导—分层治理— 系统整合”的制度演化逻辑。在此过程中,中国人工智能治理强调规范供给的适度弹性,注重底线价值确立、风险类型识别与责任机制建构,为应对快速变化的技术环境预留了制度调适空间。
展望未来,人工智能立法需在回应前沿技术引发的权利冲突与风险挑战的同时,服务于国家科技安全与全球规则构建的双重战略目标。在制度设计上,应坚持发展导向与风险治理并重,强化底线规制与包容激励的协调统一,逐步通过“促进法—基本法—综合法”的三阶段路径,构建统一的价值框架、清晰的权责结构与灵活的制度调适机制,推动人工智能治理体系向系统化、法治化方向转型升级。
来源:《交大法学》2025年第6期