刘艳红:智能平权:通过数字开源的人工智能立法实现

选择字号:   本文共阅读 80 次 更新时间:2026-02-23 21:22

进入专题: 智能平权   人工智能立法  

刘艳红 (进入专栏)  

 

一、问题的提出

2025年7月26日,国务院总理李强在上海出席2025世界人工智能大会暨人工智能全球治理高级别会议开幕式并致辞。李强总理围绕如何把握人工智能公共产品属性、推进人工智能发展和治理,从更加注重普及普惠、更加注重创新合作、更加注重共同治理三个方面提出建议,并特别强调人工智能发展应坚持开放共享、智能平权,让更多国家和群体从中受益的重要性。智能平权的关键在于数字开源(或称开源人工智能)。国产DeepSeek系列模型以开源架构在短时间内进行数次迭代升级,通过极低的学习成本获得了顶尖的生成式人工智能处理能力,这正是数字开源对智能平权的实践功效。以DeepSeek为代表的开源人工智能模型彰显了人工智能领域的未来发展方向,其开源架构不仅大幅降低了机器学习成本,还扩大了生成式人工智能的使用规模,同时通过开源架构吸收更多数据处理经验以反哺自身算法的迭代升级。鉴于立法对于实现智能平权的赋能作用,理应以数字开源的人工智能立法实现智能平权,并在人工智能立法过程中针对开源人工智能可能面临的安全风险进行相应的规范设置,以此减少新兴技术对社会发展造成的负面冲击,以法律手段保障人工智能发展的稳健性。

与之相对的是,面对我国Deepseek的迅猛崛起,部分西方国家频繁动用各种手段予以打压以维持其智能霸权。例如,2025年1月30日,法国国家信息与自由委员会正式宣布,将对杭州深度求索企业进行深入问询。此次问询的核心目的在于全面了解Deepseek的人工智能系统运作机制,并评估其可能涉及的隐私保护风险。又如,澳大利亚政府内政部部长向所有政府实体发布强制性指令,要求“防止使用或安装DeepSeek产品、应用程序和网络服务,并从所有澳大利亚政府系统和设备中删除所有现有的DeepSeek产品、应用程序和网络服务”。在此过程中,域外人工智能立法成为建立智能霸权的手段而非推进智能平权的方法。2025年1月29日,美国国会参议员乔什·霍利(Josh Hawley)提出的《2025年美国人工智能能力与中国脱钩法案》(Decoupling America's Artificial Intelligence Capabilities from China Act of 2025)不仅阻碍中美双方在人工智能领域的技术交流和市场合作,亦会影响全球人工智能产业的发展。2025年6月25日,美国两党议员推出的《禁用对抗性人工智能法案》(No Adversarial AI Act),旨在通过制定“外国对手AI”清单等方式阻止联邦机构使用中国等外国对手开发的人工智能,保护美国政府免受所谓“敌对人工智能系统”的侵害。2025年7月,《美国人工智能行动计划》(America's AI Action Plan)再次延续美国智能霸权思维,将引领国际人工智能外交与安全作为第三大支柱,目标是将美国的AI影响力扩展至全球,建立一个以美国技术为核心的国际体系,同时精准打击并遏制对手。

智能霸权与我国一贯坚持的发展方略相违,我国人工智能立法应坚决反对智能霸权,通过规范输出的形式推动国际领域人工智能的交流与合作。“作为上层建筑的法律规则直接或间接反映占社会主导地位的经济生产方式,一旦先进生产力出现并试图整合和重塑既有生产方式,法律需要及时进行回应和推动,帮助新的生产关系出现,避免阻碍生产力”。基于智能平权视角,人工智能立法在实现路径上具备了坚实的方向指引,并通过数字开源的基本立场、数据安全风险防控机制和领域性立法体系的多重建构,共同促成人工智能的同球共治、行稳致远。

二、数字开源立场:智能平权视角下人工智能立法的核心

我国人工智能立法坚持数字开源的基本立场有利于实现智能平权的要求,通过鼓励人工智能技术在发展过程中实现“百花齐放、百家争鸣”的良性竞争局面,以贯彻习近平总书记提出的“加强人工智能国际治理和合作,确保人工智能向善、造福全人类,避免其成为‘富国和富人的游戏’”的主张。事实上,DeepSeek借助开源架构而备受推崇,基于DeepSeek的开源架构所衍生的人工智能模型如“雨后春笋”般出现,这充分体现出数字开源立场所拥有的巨大技术潜力与产业诉求。鉴于此,我国在人工智能立法过程中应该以数字开源作为规范条文设置的基调,并在数字开源的同时构建对应的法律保障体系。

(一)数字开源立场的宏观平权价值

中国通信标准化协会云计算标准和开源推进委员会发布的《全球开源生态洞察报告(2024年)》显示,全球开源软件项目稳定增长,总规模突破4亿个,开源已成为赋能数字经济高质量发展的原动力。人工智能立法的数字开源立场已深刻于我国既往文件实施的经验之内。在国家层面,早在2017年7月8日,国务院《新一代人工智能发展规划》即将开源开放作为基本原则,倡导开源共享理念,促进产学研用各创新主体共创共享,并积极参与人工智能全球研发和治理,在全球范围内优化配置创新资源。2025年3月11日,第十四届全国人民代表大会第三次会议通过的《第十四届全国人民代表大会第三次会议关于2024年国民经济和社会发展计划执行情况与2025年国民经济和社会发展计划的决议》将持续强化算力、数据等人工智能基础要素高效能供给,构建开源模型体系,作为2025年国民经济和社会发展计划的主要任务之一。在地方层面,2025年7月28日,上海市经济和信息化委员会《上海市进一步扩大人工智能应用的若干措施》强调:“打造开源开放创新生态。持续用好世界人工智能大会、全球开发者先锋大会等平台,推动人工智能国际合作与开放共享,鼓励企业积极融入全球开源生态。”在此基础上,人工智能立法坚持数字开源立场,是对既往文件优质内核的继承,具有深厚的实践基础。

理论上关于数字开源的概念未达成共识,对人工智能内部何种要素在何种程度上开放方可属于开源并不清晰,而人工智能开放程度与智能平权相关联。行业内权威组织开放源代码促进会(Open Source Initiative)认为,开源的人工智能系统需要满足以下几点:可将系统用于任何目的,无需征得许可;允许人们研究系统的工作原理并检查其组件;允许人们为任何目的修改该系统,包括更改其输出;人们可以出于任何目的,将系统共享给他人,无论是否经过修改。欧盟将开源人工智能的概念上升至立法层面,其《人工智能法》(Artificial Intelligence Act)导言第102条至第104条强调免费且开源的人工智能需公开其权重、模型架构信息和模型使用信息,并可允许部署者运行、复制、分发、研究、更改和改进软件、数据和模型。事实上,依据开放程度的差异,人工智能的数字开源可被区分为全部开源、部分开源和渐进开源三种不同的类型,但最低标准是要求人工智能的关键要素公开,如模型权重、推理代码等,并可复现、可修改。

在数字开源的基本立场下,人工智能的部分甚至全部要素向公众开放,对于推动智能平权意义重大。首先,数字开源具有强烈的“技术民主化”倾向,在开源社区内来自全球的开发者、研发者、应用者、爱好者等均可拥有参与权、决策权和协作机会,在相互借鉴参考的基础上以去中心化的方式摆脱传统单一决策中心的封闭体系容易产生的偏见缺陷,构建起既促进竞争又实现合作的人工智能良性创新生态。正因多方主体协同参与人工智能的空间设定,数字开源模式能够有效整合计算机科学、数学、神经科学等多学科研究力量,使技术创新从“封闭竞赛”转向“开放进化”。其次,以DeepSeek为代表的生成式人工智能开源架构大幅度降低了人工智能对于数据和算力的依赖性,令生成式人工智能的发展摆脱规模定律的支配,从而“使其模型在保持高性能的同时,大幅降低了对硬件投入的依赖,并为全球开发者提供了可复现、可负担的‘以软补硬’技术方案”。这种人工智能应用门槛的显著下降,使资源匮乏机构或个人能复用前沿成果,推动全球知识共享以及人工智能规模的迅速扩张,从而为中小国家或发展中国家普及人工智能技术作出重大贡献。最后,数字开源有利于对人工智能安全风险进行第三方监督,促使风险防控机制的迭代升级。例如,2025年年初Wiz Research团队发现DeepSeek的一个可公开访问的ClickHouse数据库,允许访客全面控制数据库操作,包括聊天记录、密钥、后端详细信息及其他高度敏感的信息。Wiz Research团队立即负责任地向DeepSeek披露该问题,后者迅速采取了安全措施。不仅如此,数字开源对于人工智能透明度的提升还使得信息或数据主体拥有向人工智能开发者等责任主体主张权利的可能性(包含证据收集的可能性),有利于破解信息或数据主体面对不对等责任主体的权益保障难题。因此,数字时代依据算法模型构建机器学习壁垒不仅不利于人工智能系统之间的交流合作,还会导致人工智能系统本身因为体系封闭而丧失发展活力。与之相对,如果在人工智能立法过程中倡导数字开源立场,在制定规范框架时鼓励不同人工智能系统之间进行交流,反而有助于人工智能系统之间取长补短,实现“人工智能向善”的价值主张,并且通过合作交流来降低人工智能系统的机器学习成本。

(二)数字开源立场的微观制度保障

技术发展通常与风险衍生相对应,尤其是当前“风险社会的结构、要素、理念等发生了重大变化,其衍生的不确定性导致人类对现实和未来更加难以估计和控制”。数字开源这一立场将人工智能的部分甚至全部要素向公众开放容易引发知识产权侵权等若干风险。人工智能立法应在坚持数字开源立场的同时,设置相应的法律保障措施,以规范条文的形式来完善相应的法律保护体系,避免开源人工智能系统的开发者权益受到损害。

从最初的作为抵制知识产权的工具,数字开源现已转变为利用知识产权制度推进开源人工智能发展的主要途径。理论上通常认为“开源软件是在尊重著作权法保护作者对其软件作品享有著作权的前提下,通过发放开源许可证来实现源代码开放、自由、共享的理念”。换言之,数字开源不意味着人工智能告别知识产权制度的保护。例如,在福建风灵创景科技有限公司等与济宁市罗盒网络科技有限公司侵害计算机软件著作权纠纷上诉案中,GitHub网站上显示VirtualApp由罗盒公司开发运营并于2017年8月正式公司化运作,项目发起人Lody在GitHub网站上传了VirtualApp的初始源代码,其对开源软件VirtualApp享有著作权。被诉侵权软件中使用了罗盒公司采用GPL3.0协议发布的VirtualApp,根据GPL3.0协议第5条第1款c项、第7条和第10条的相关内容及“强传染性”特征,对在逻辑上与开源代码有关联性且整体发布的派生作品,只要其中有一部分是采用GPL3.0协议发布,那么整个派生作品都必须受到GPL3.0协议的约束。然而,福建风灵公司使用了附带GPL3.0协议的开源代码,却拒不履行GPL3.0协议约定的使用条件,因失去权利来源而构成侵权。在此情况下,开源人工智能的著作权可“传染”至派生人工智能之中并受到法律保护。如果开源人工智能著作权人禁止用于商用,后续其他用户未遵循此规定的亦构成侵权。同时,数字开源可能导致商业秘密泄露,如将未开源人工智能在未经授权或超越授权的情形下予以开源,或通过分析开源因素而获得开源方商业秘密等。例如,在深圳花儿绽放网络科技股份有限公司与浙江盘兴数智科技股份有限公司等侵害技术秘密纠纷上诉案中,2018年10月18日,原告花儿绽放公司与被告盘兴公司签订花儿绽放源代码使用许可合同,约定花儿绽放公司将有客多小程序源代码以非专有、不可转让的方式许可给盘兴公司使用,许可使用费为15万元,许可使用期限为合同签订日起20个自然年度。2019年5月,原告发现其有客多软件的源代码在全球开源网站共享平台Github上被公开发布。在未取得原告花儿绽放公司授权同意的情况下被告盘兴公司即擅自将涉案软件予以开源,无疑侵害原告方商业秘密。此外,以开源人工智能为教师模型进行模型蒸馏属于常见现象,但学生模型的修改、部署和应用可能并不正常。例如,网络犯罪分子利用开源模型,创建了恶意版本的AI机器人DarkBard、FraudGPT、WormGPT等,这些黑色AI已实现恶意聊天、欺诈犯罪和蠕虫病毒编写等能力,具有严重的社会危害性。

首先,针对数字开源面临的知识产权侵权风险,人工智能立法应该承认并保护开源人工智能系统自身所拥有的知识产权,并要求机器学习者尊重其他人工智能系统的知识产权,在平衡安全与发展等多元价值的基础上稳步推进智能平权。在肯认开源主体对其开源的人工智能享有受法律保护的著作权的基础上,建议人工智能立法将开源社区中相关开源协议的内容上升至规范层面,如开源代码的传染性条款等,并规定其适用界限。例如,在北京某电子商务有限公司诉北京某信息技术有限公司侵害计算机软件著作权纠纷案中,法院认为,前端代码与后端代码在展示方式、所用技术、功能分工等上均存在明显不同,不能因前端代码与后端代码之间存在交互配合就认定二者属于一体,因而后端代码是独立于前端代码的其他程序,无需强制开源。该案是对传染性条款的实践限缩,强调的是前端代码和后端代码的实质差异。立法根植于实践之中,在规定开源代码的传染性条款的基础上将司法实践中业已成型的实质化区分方案上升为立法规范,是推进人工智能立法科学性的重要举措。同时,建议设置开源协议这一开源社区的格式合同外开源主体的自主选择权和补充权,允许开源主体基于自身利益的考虑而拥有禁止商用等的权利,以间接激励开发者将人工智能开源。

其次,数字开源场景下侵害商业秘密所应承担的法律责任具有多重性,为增强民行刑一体化责任配套机制运作的有序性,应以专款专条的形式划定开源社区内各方主体不同形态、不同程度的商业秘密保护义务,并以义务违反的严重性合理分配不同类型的法律责任。人工智能立法要塑造不同算法模型在机器学习过程中的互信状态,提升人工智能系统的整体性能,通过人工智能立法来推动人工智能产业的全面发展。例如,未经同意擅自开源的行为,属于《刑法》第219条侵犯商业秘密罪规定的披露行为,在满足司法解释规定的数额标准时即可能构成该罪,其他情况则至少可以构成侵权。针对开源因素而获得开源方商业秘密的行为需明确其与“反向工程”的边界。如果行为人能够证明其是通过对合法取得的人工智能产品进行“反向工程”获得技术信息的,则不构成对商业秘密的侵犯。当然,如果行为人本身便与开源方存在商业秘密保护义务,在此情况下即便其实施了“反向工程”亦不属于合法获取商业秘密的行为。此处值得讨论的是模型蒸馏的合法性问题。2025年4月16日,美国美中战略竞争特别委员会发布“DeepSeek Unmasked:Exposing the CCP's Latest Tool for Spying, Stealing,and Subverting U.S. Export Control Restrictions”,报告称DeepSeek通过模型蒸馏技术非法复制美国AI模型(如OpenAI的模型),属于技术盗用。倘若教师模型系闭源模型,其训练数据集和生成内容之上不存在任何权利,前者通过数据抓取技术所得数据要么因其公开性而能够被用于其他模型训练,要么因存在在先的数据主体而具有其他权利归属;后者系因用户参与才得以满足最低程度的人类参与标准,因而其权利应当归属于用户。在此基础上,以习得逻辑推理能力为目标的正常模型蒸馏行为不具有违法性。只不过因闭源模型未公开其系统架构和参数,复制粘贴教师模型系统架构和参数的非正常模型蒸馏行为才属于侵犯商业秘密的行为。倘若教师模型系开源模型,其通常仅对外开源部分关键算法,对于未开源部分仍有侵犯商业秘密的可能性,在规范上应予以明确。只有在人工智能立法中明确模型蒸馏的界限,具有技术优势的算法模型才会积极分享自身的人工智能系统处理经验,而技术落后的算法模型在恰当的机器学习过程中不仅能提升自身水平,还可以反馈数据处理经验以供具有技术优势的算法模型进行自我改进。

最后,行为人利用开源模型创建的非法模型是其实施违法犯罪活动的工具。现有已部署运行的开源模型虽然可能基于固有幻觉而生成虚假信息、错误信息,且能够被相关主体用于违法犯罪信息批量生成、网络诈骗等活动中,但人工智能模型普遍实施了提示词攻击防护策略,当出现恶意提示词时模型会识别并禁止生成相关内容。在此情况下,行为人若欲实现不法目的,只得付诸于绕过模型安全机制的黑盒攻击或针对模型内部构造的白盒攻击。随着开源模型防护策略的迭代升级,提示词攻击的成功率大幅度降低。然而,开源模型可在简单修改的基础上直接删除提示词防护机制,使之成为专门用于实施违法犯罪的工具,从而助推违法犯罪行为的实现。从开源模型到非法模型,其法律责任只能归属于行为人而不能归属于开源方。未来人工智能立法应当明确非法模型的主体责任,并规定非法修改、部署、应用开源模型的禁止立场,指明其法律责任,以反向激励手段结合典型处罚案例实现禁止实效。

总之,以数字开源为基本立场的人工智能立法表现出的“技术民主化”催生去中心化和技术创新,在降低人工智能应用门槛的基础上推动人工智能技术在全球范围内普及普惠,并以第三方监督的形式助力完善风险防控机制,对于推动智能平权具有重要意义。在此基础上,应通过技术协议的规范转译、商业秘密保护的义务强化、非法模型转换的禁止立场等路径对数字开源衍生的若干风险予以制度保障。

三、数字开源的安全风险防范:人工智能立法分类分级保护数据

数据资源是驱动数字经济发展的命脉,而“数据利用问题是制约人工智能发展的卡脖子问题,不论大模型设计的技术水平有多高,数据训练数量与质量均对AI性能具有决定性影响”。开源人工智能面临着更加严峻的数据安全风险问题,以数字开源为基本立场的人工智能立法应该尤其重视对数据要素提供全生命周期保护,从而保障开源人工智能可稳定运行并合理地处理数据,并据此实现人工智能数据层面上的智能平权问题,即令人工智能系统享有充沛的数据来源和合法的数据处理权限。我国当前针对数据要素普遍提倡分类分级保护机制,如《数据安全法》第21条规定“国家建立数据分类分级保护制度”,而2022年12月8日最高人民法院《关于规范和加强人工智能司法应用的意见》中也提出“加强司法数据分类分级管理......防范化解人工智能应用过程中的安全风险”。“风险分级分类规制意在对不同风险源的危害强弱进行评估,继而根据风险程度将其划分为不同的级别和类型,再匹配以干预程度强弱不等的差异化规制措施。”在人工智能立法过程中设置数据分类分级保护机制,不仅可以充分发挥开源架构的创造性价值,还可以精准治理的方式避免数据处理的潜在安全风险。

(一)基于数据类型的监管模式选择

理论上对于数据类型和数据级别的关系存在数据类型决定数据级别的观点,即“数据分类可以直接决定数据分级保护......数据属性和特征在作为分类划分标准时,也是分级保护的依据标准”。这种观点并不成立,数据类型和数据级别具有各自存在的独立性,二者之间不是相互决定的关系。场景理论认为,“场景是以规范的活动、角色、关系、权力结构、规范(或规则)和内部价值(目标、导向、目的)为特征的结构化的社会环境......与场景一致性理论的发展最密切相关的是角色、活动、规范和价值理念的构建”。数据类型是场景理论的体现,强调的是针对不同类型数据采用不同的法律监管模式,在人工智能立法中根据数据来源的不同进行分类监管。当前人工智能系统处理的数据主要分为公共数据、商业数据以及个人数据,这三类数据的来源存在差异,并且不同类型数据的潜在价值、之上依附的权利形态也存在差别。人工智能算法在处理海量数据并精准预测的过程中,本身就存在算法黑箱的质疑,因此要通过对数据的分类监管机制来提升算法透明度,保障数据在开源架构中的安全。

首先,公共数据存在权利虚位现象,所谓的国家所有权或全民所有权并不合理。当前理论上部分观点对公共数据予以确权的核心理由在于防止发生“公地悲剧”进而形成安全、有序利用公共数据的格局。然而,这一观点值得商榷。在数据确权争议尚未发生之前,公共数据授权运营便已在实践中展开(如2016年公布的《网络安全法》第18条、《电子商务法》第69条等),只不过新近国家政策层面再次加大力度提倡并完善其授权运营机制罢了。国家所有权或全民所有权只是在公共数据之上设置了一种“形式权利”,并不对授权运营的机制建构发挥指导作用。同时,授权运营中的“权”,不是将国家层面上对公共数据享有的某种权利许可给他人,而是要求责任主体在事前获得许可的权限范围内运营公共数据。国家发展改革委、国家数据局2025年1月8日公布的《公共数据资源授权运营实施规范(试行)》第10条规定:“可行性论证内容应包括但不限于授权运营数据全生命周期管理服务、社会需求、市场规模、预期成效、风险防控等。”这意味着,公共数据授权运营的核心不在于确权而在于风险控制。更重要的是,公共数据与商业数据、个人数据极易存在重叠关系,其中可能包括大量的商业数据和个人数据,如果在公共数据之上再行创设国家所有权或全民所有权,容易与商业数据和个人数据主体权利发生矛盾,“在制度功能上也将引发‘与民争利’和‘地方数据壁垒’的双重负面效果”。因此,对于公共数据要抛开权利思维的束缚,从风险控制的角度出发,尽可能地发挥其体量大、质量高等方面的优势进而为人工智能系统提供“物美价廉”的训练语料库以破解中文训练语料库的发展困境,提高人民群众对数字政府中人工智能系统的满意度。

其次,个人数据与个人信息事实上无法区分,“承载个人信息的个人数据,交换价值就在于其上的个人信息,无论采取差分隐私、同态加密等技术,要使数据用益权能够发挥实际作用,必然需要使用益权人获得更大的利用个人信息的自由”,因而亦可将其称之为个人信息数据。个人数据因《个人信息保护法》相关权利的规定而不存在绝对的权利虚位现象,但并不意味着应认可一般意义上的个人数据自决权等绝对权利的存在。在人工智能系统算法黑箱的技术掩盖之下,个人数据主体无法获得对数据的控制权,事前知情同意条款的微弱限制也因一揽子授权、无效的点击同意等因素的结合影响而丧失功能。为建立起个人数据处理场景中的多方博弈关系,应强调国家机关对数据处理者“自上而下”的治理主导作用,个人数据主体通过查阅权、复制权、删除权等工具性权利对数据处理者“自下而上”的间接限制作用,以及数据处理者通过个人数据全生命周期风险合规机制对国家机关和个人数据主体“自中而外”的强制规范义务,在各方合比例的范围内有效展开个人数据在人工智能系统中的处理与利用。这种多方博弈关系较之于仅依靠个人数据主体对数据处理者主张个人数据自决权的“自下而上”之模式无疑更具有现实可行性,有利于据此维护数据主体“真实的自决权”。个人数据与公共数据、商业数据最大的不同点在于其与特定自然人的关联性,而单个自然人与数据处理者相比属于典型的弱势群体。基于此,人工智能系统对个人数据这类数据应提供更为严格的保护措施,避免其在开源架构中被泄露。

最后,商业数据之上的权利形态取决于数据加工的程度。2022年12月19日,中共中央、国务院《关于构建数据基础制度更好发挥数据要素作用的意见》中提出的以数据资源持有权、数据加工使用权、数据产品经营权为核心的“三权分置”方案是当前数据确权的官方依据,主要指向的就是商业数据。在商业数据之上概括地设置一项绝对的财产权,并通过数据的稀缺性、可支配和经济价值加以论证的观点,因欠缺数据类型化思维而并不合理。例如,商业数据并不必然具有稀缺性,如果此处数据指代的是未经加工处理的原始数据,那么若干用户每天产生的海量数据均在此列,任何主体均可并行不悖地处理这些数据而不发生任何冲突和损耗。相应地,人工智能训练数据瓶颈的主要产生原因不在于未经加工处理的原始数据数量稀少,而是高质量的AI-Ready数据匮乏。尤其是在规模定律不再占据主导地位的当下,这一结论的合理性便更加凸显。针对此类数据可以认为,“数据不像石油那样具有稀缺性,数据可以几乎没有成本地进行复制和传输,将数据限制在特定地域内并不合理,只有流动才能实现数据的巨大价值”。在此基础上,理论上呈现出两种数据确权演变趋势,即从数据主体转向数据处理者,从泛泛谈数据转向类型性地区分数据。在主体层面上,个人数据主体具备的工具性权利不在数据确权的范围之内,而公共数据主体(包括国家职能机关和授权运营者)之上并不存在真实的权利,那么数据确权的主体只能归于数据处理者(此处包括人工智能开发者、部署者等)。在类型层面上,未经加工处理的原始数据不值得设置专项权利予以保护,对其促进流通利用比保护更重要(当然,流通利用与保护之间不是排斥关系),否则即会产生“权利丛林”现象;经加工处理的数据产品有向知识产权发展的趋势,只有赋予数据处理者以稳定的控制权或支配权才能满足其合理预期进而达到激励效果。在商业数据资源(或称商业数据集合,是原始数据的简单汇交融合)和商业数据产品所组成的权利体系中,应该在确保安全流通的前提下防止人工智能技术对商业数据资源进行过度挖掘,避免商业数据被算法“二次加工”后泄露潜在商业信息;通过缔结协议或数据交易所场内交易等形式保障商业数据产品的合法有序流通,并鼓励数据处理者开发与人工智能相关的商业数据产品,如人工智能幻觉测试题库、具身智能合成数据训练集等。

(二)基于数据级别的保护措施设定

以场景化为核心的数据类型天然地具有区分优势,但如何将某一特定类型的数据进一步划分成不同的数据级别存在难度。《数据安全技术 数据分类分级规则》(GB/T 43697-2024)根据数据在经济社会发展中的重要程度,以及一旦遭到泄露、篡改、损毁或者非法获取、非法使用、非法共享,对国家安全、经济运行、社会秩序、公共利益、组织权益、个人权益造成的危害程度将数据从高到低分为核心数据、重要数据、一般数据三个级别。这种判断方法具有相当的模糊性,可能导致与之相关的保护措施之设定过于理想化。无论是危害程度指向的特别严重危害、严重危害和一般危害标准,还是危害对象指向的国家安全、经济运行、社会秩序、公共利益、组织权益、个人权益标准,都带有极强的价值评价色彩,且因危害对象的抽象性而无法确定危害程度的具体形态。例如,经济运行和社会秩序均属于公共利益的范畴,但任何违反数据安全保护义务的行为均可以被认为影响经济运行和社会秩序,并可随意通过概念的放大效应而获得更高级别的危害程度。换言之,描述词的替换即可影响经济运行和社会秩序的危害程度定级。究其根源,经济运行和社会秩序只是强调规范运作的有序性、一致性、连续性,缺乏程度区分功能。除个人权益外,其他危害对象均存在相似的弊端。个人权益的内涵虽相对稳定,但其构成要素繁多,此时数据级别与风险程度并非完全对应的关系,基于处理目的、处理技术等方面的差异,一般数据亦有可能衍生特别严重的危害。这导致实践中以数据级别决定保护措施的路径并不通畅,甚至直接使得数据分类分级的制度目标落空。

数据级别是在数据类型确定之后的下一阶段工作,其在重要性上甚至强于数据类型的划分,但若欲展开数据级别必须以数据类型为基础。在公共数据、商业数据和个人数据的数据类型标准体系中,以专门政策文件或技术标准的形式为公共数据、商业数据和个人数据设置数据级别的一般方法论并不合理。就公共数据而言,其数据级别应与保密级别相关联,可授权行政机关进行灵活细化的职权配置,推动无保密级别或低保密级别的公共数据能开放尽开放,以真正实现此类数据的公共属性;就商业数据而言,其事关数据处理者核心竞争力,具体数据级别应交由其自行决定,而规范存在的意义仅在于纠正部分应开放而未开放的商业数据并防止形成数据垄断。我国数据反垄断第一案即是如此,当事人在中国境内单一货币经纪公司债券声讯经纪实时交易数据市场具有市场支配地位,没有正当理由拒绝将此数据授权给其他债券信息服务商,阻碍了其他经营者进入下游金融信息服务市场与其开展竞争,构成滥用市场支配地位的拒绝交易。这种不受限的商业数据垄断现象会对人工智能系统的数据来源产生很大的负面影响;就个人数据而言,应与个人信息的敏感个人信息和一般个人信息的划分相对接,突出个人数据和个人信息的事实不可分性。在此基础上,在人工智能立法中对于数据的分级监管要求在事先实质分析数据的具体内涵与潜在价值,根据数据在内涵上的差异提供不同强度的法律保护措施。例如,在数据来源端,针对由各方数据处理者确定的核心数据,其可采用隐私计算等技术,在不泄露原始数据的基础上以可用而不可见的方式为人工智能系统供给数据;可通过为不同数据管理人员设置不同的数据处理权限,并辅之以隔离化储存技术等降低数据整体泄露的可能性。在数据处理端,人工智能系统对数据进行深度挖掘,在机器学习过程中,数据的潜在价值可能被挖掘,因此要事先根据数据中实质内容的敏感程度来进行分级,并在立法中规定不同级别数据所能够适用的处理模式、挖掘深度以及开源程度。在人工智能立法中进行分级监管,可以在开源架构与数据保护之间保持平衡,既倡导人工智能系统的数字开源立场,又在法律规范框架内为不同级别数据提供有效保护,合理减少人工智能系统的运行成本。

总之,人工智能系统中的数据要素是实现智能平权的关键环节。数据类型和数据级别各自具有独立性,但数据级别以数据类型为基础。基于数据类型可选择相应的监管模式,如风险控制理念下公共数据开放与风险的平衡,三方博弈关系下个人数据的严格保护,数据资源和产品类型化下商业数据的区别保护;基于数据级别可设定相应的保护措施,但数据级别不应采取事前概括式确定的思路,而应充分发挥数据处理者的主观能动性,并在数据来源端和数据处理端不同维度上推进人工智能领域内数据保护措施的展开。

四、数字开源时代以领域性立法框架实现智能平权人工智能立法

采取何种人工智能立法方式决定着开源时代实现智能平权的程度。域外对于人工智能立法采用不同框架,主要是以美国为代表的碎片化立法框架与以欧盟为代表的集中化立法框架,其中碎片化立法框架监管较为宽松,而集中化立法框架监管较为严格。与之相对,我国提倡的以数字开源为基本立场的人工智能立法应扬长避短,采用领域性立法框架破解人工智能系统在数字开源时代所面临的复合性、交叉性的混乱局面,为人工智能领域提供中国智识。

(一)从部门性立法转向领域性立法

以部门性立法解决实践问题是传统法律治理的惯常做法,但“由于数字时代的法律得以建立的社会结构已开始从平面空间向立体空间变迁,传统‘点对点’的线性社会关系也开始向‘点对面’的交叉社会关系演变,因而分散性的部门立法难以对各种交叉融合性法律关系进行整全性规制”。在此情况下,试图通过部门性立法推进开源人工智能的发展与治理事业已不合时宜。

人工智能立法问题具有复杂性,通过部门性立法的方式容易造成不同部门法之间的治理矛盾进而影响人工智能治理的整体效能。具体而言,其一,部门性立法的价值适应性缺失。“法律体系既是由外在逻辑联系的制度和规范体系构成,也是由内在融贯性的法律精神所蕴含的价值理念构成。”人工智能立法有其特殊的价值遵循。理论上通常认为,人工智能立法“应以发展与安全并重为指导思想,以促进研发应用与防范主要风险为二元立法目的”。事实上,处于安全发展、风险治理之间还存在关键的衔接要素,即新兴权利保护。一方面,部门性立法各自具有独立的价值取向,如刑法的目的在于保护法益,行政法的主要任务在于秩序维护,而民法的核心在于损害填补。“AI的发展正在逐步瓦解这一基础,对法律的价值体系提出前所未有的挑战”,部门性立法独立的价值取向在民行刑一体化的法律责任配置格局的形成过程中尚存在对接难题,更遑论与人工智能立法的多元目的相关联。晚近有观点将风险治理与安全维护的理念渗透进传统部门法之内,有成为全体部门法共同依托的趋势,衍生出风险刑法、风险行政法等理论立场。这些理论立场虽与人工智能立法具有一定的适应性,但代价是崩塌了各自部门法的核心价值,造成了部门法梯次配置格局的混乱。另一方面,现有部门性立法不能对应人工智能立法中涵盖的诸多新兴权利,更无法进行有效保护。AI场景催生出数据主体、算法开发者、平台运营者、终端用户的复杂权利交织图景消融了公法与私法的界限,“人工智能作为通用目的技术,其发展与应用广泛嵌入社会经济秩序,不可避免地与现行诸多法律法规产生冲突”。

其二,部门性立法的治理主体协同性效应不彰。部门性立法的基本逻辑在于治理权的分割固化,各种国家机关依据专属立法权限构建封闭式监管体系,并针对特定事项展开治理。然而,人工智能系统具有复杂性,现有规范在治理人工智能安全风险时通常只能先分解再评价。例如,生成式人工智能可能成为虚假信息的传播媒介、生成手段或编造主体,而网信等部门可能依据《生成式人工智能服务管理暂行办法》第4条的规定处罚提供和使用生成式人工智能服务的行为,行政机关可能依据《治安管理处罚法》第29条的规定处罚“故意散布谣言,谎报险情、疫情、灾情、警情或者以其他方法故意扰乱公共秩序”的行为,司法机关可能依据《刑法》第246条、第293条的规定处罚诽谤、寻衅滋事等行为。这种多头管理既导致责任主体需应对碎片化合规要求,又可能在分解组合之间遗漏行为的整体评价价值进而无法实现精准治理的功效。

其三,部门性立法容易造成大量的重复性立法,“且能够发挥实际作用的规范数量较少,多数规范被束之高阁,‘立而不用’或‘立而少用’,造成‘法律贬值’”。倘若将人工智能立法以部门性立法的方式展开,那么一些宣示性规定必然重复出现在多部法律之中,否则便无法形成治理体系的延续性,而这势必会造成规范的重复性。在不同法律衔接过程中,转致条款普遍被认为是增强规范衔接性的必要措施,但概括式的转致条款只是确定了其他部门法参与治理的可能性,并未回答以何种方式参与治理,最终只能沦为多余的口号式规范。

“法律是社会生活的写照。当社会生活发生变化时,对其发挥重要规制作用的法律规范也要随之变化,以获得适应性。”在人工智能立法过程中应该推动领域性立法,对开源人工智能领域的技术特征进行系统性分析,统筹考虑各种法治资源的属性、功能及其协调关系,最终通过人工智能立法来形成人工智能领域问题的跨界融合治理方案。人工智能引发的综合性治理问题必须付诸于综合性的治理手段予以解决。从部门性立法转向领域性立法,是对部门性立法固有缺陷进行积极扬弃的结果。

在领域性立法内,传统内部体系化思维意欲建构的部门法协同机制被转换为外部体系化思维指向的领域法建设,主要包括框架性立法、适应性治理和国际性贡献三个方面。一是人工智能立法并不是指仅存在一部称之为“人工智能法”的规范,而是实行分阶段的整体人工智能立法规划,通过前期框架性立法规范的设置起到顶层指引作用,再交由相关职能部门推出更为具体的政策文件,经过一段时间的酝酿之后最终形成内部和谐、外部协调的人工智能立法体系。在此种指引性和规范性兼具的法治体系中,人工智能系统的安全发展、新兴权利保护和风险治理等多元价值诉求得以和谐共生,各种治理主体和治理手段能够以高效的反应速度实现不同领域间相互无矛盾的法秩序统一格局,进而推动人工智能治理的整体效能。二是人工智能立法的“不确定性来自技术飞速发展给调整对象带来的不确定性、技术产业迭代给调整的社会关系带来的不确定性、技术飞速发展带来的风险种类和程度的高度不可预见性”。这种不确定性要求规范本身具有较强的适应性,能够根据人工智能安全风险的多样化和多变性及时调整治理对策。“适应型法不只是强调法律对社会需求的敏感性,它更深入地引入了复杂适应系统等理论,将社会和技术系统内生的(基于当事人需求的)司法创新裁判、企业合规举措、地方立法实验等视为法律演进的重要‘自组织’力量。”例如,部门性立法通常特别倾向于法律治理,这容易忽视其他治理手段的存在,尤其是不利于技管融合治理模型的生成。人工智能安全风险在绝大部分情形下是由于技术缺陷所致,此时只有以更新或修复后的技术工具箱才能有效解决特定人工智能安全风险,“甚至采取更为灵活的行政管理和企业管理手段也难以满足技术性风险的技术化防范需求”,因而人工智能安全风险之治理应以技术治理为主。法律治理乃至数据处理者的管理治理只是为技术治理“保驾护航”的制度性因素,其在宏观技术研发方向、中观资源调配、微观技术清单和标准指南建设等方面发挥作用。三是以人工智能立法为代表的领域性立法的兴起,“是对传统法学学科体系的革命,它不仅丰富了法学学科体系的构成要素,更重要的是,‘领域法学’的出现显示出法学学科的分类正在向以问题为导向的‘综合法学’转变”。晚近欧盟通过《一般数据保护条例》(General Data Protection Regulation)抢占并引领世界各国数据保护规范的制定,新近其又试图以《人工智能法》重演“规范霸权”逻辑。我国在人工智能技术上突飞猛进,但规范输出程度并不够,“通过人工智能立法探索示范,并积极主导国际监管规则、标准及议程制定,贡献中国智慧与中国方案,必将持续提高我国在全球人工智能治理进程中的规则塑造力”,从而打破“规范霸权”实现治理经验的普及普惠。

(二)人工智能领域性立法的基本框架

从部门性立法转向领域性立法,人工智能立法的协同性特征凸显。“系统思维的协同性强调全面考量系统中构成要素的内在特性,充分发挥要素的相互作用,使系统能够保持协同高效运行。”人工智能系统中构成要素具有多样性,牵扯诸多治理手段和治理工具,因而理论上有主张创制人工智能基本法、人工智能规制法、人工智能促进法与人工智能控权法的“四法并置”体系,或者以人工智能基本法为主体、以产业促进法和技术标准法为分支的人工智能领域法。事实上,无论形成何种人工智能立法体系,其均需解决横向上与诸部门法的关系和纵向上与其他学科的关系这两大方面的问题。

在横向层面上,人工智能立法需要明确自身智能平权的价值定位,将规范条文中对于人工智能系统的监管措施嵌入其他部门法之中形成配合。人工智能立法过程中需要完善自身与刑法、行政法、民法典、网络安全法、数据安全法、个人信息保护法等法律规范的关系,针对人工智能系统的开源架构提供法律保障措施。例如,人工智能立法应加强与刑法的有效衔接,对于可能存在犯罪风险的领域进行重点预防,构建协同治理模式。在此过程中,一方面,刑法应积极调整既往构成要件,通过立改废释纂的综合运用,搭建起覆盖人工智能安全风险主要类型的刑罚法规体系。理论上提出的增设“非法分析数据罪”“滥用算法罪”等罪名,以及将计算机信息系统犯罪整体调整为数据犯罪等在某种程度上是因应人工智能立法作出的调整,但需特别注意刑事立法的必要性,将“法益侵害+最小限度”标准贯彻始终。另一方面,人工智能立法不是部门性立法,依赖刑法修改旧罪或增设新罪并无过多助益。更重要的是,其应在框架性立法及具体化立法之中规范人工智能系统开发者、部署者等相关主体的刑事风险类型及相应的防范义务,建构起横贯事前、事中和事后的全流程人工智能安全风险治理机制。同时,对于人工智能立法与法律规范的协同性,可通过“立法沙盒”予以测评。既往监管沙盒制度通常被用于人工智能技术在可控范围内进行容错纠错以保障技术创新。其强调的是为人工智能技术提供可控的测试环境,“促进信息、数据与风险的充分流通与展示,增进行政监管部门与产业界的互动、交流与双向了解......推动AI监管与风险治理目标实现,引导科技向善、实现价值对齐”。人工智能立法亦可参照监管沙盒的基本结构实行“立法沙盒”以构建制度创新与风险防控的动态平衡器,即将人工智能立法在模拟真实环境的可控空间内令人工智能开发者等责任主体予以施行,以测试的后果作为反馈依据调整规范内容。质言之,人工智能立法在横向上应该凸显自身价值定位,针对数字开源时代的潜在风险来优化自身的规范设置,同时完善自身与其他相关法规的衔接流程,从而对人工智能的潜在风险进行精准治理。

在纵向层面上,人工智能立法需要充分吸收人工智能领域的专业知识,增强法律条文的专业性与科学性,为开源人工智能系统构建科学的法律监管体系。例如,我国《网络安全技术 生成式人工智能服务安全基本要求》(GB/T 45654-2025)在标准起草阶段便注意吸纳来自高校、科研机构、企业等方面的法律专家、人工智能专家、数据治理专家、计算机专家等,并在不同学科的交叉融合之间生成技术指南,较好地实现了技术标准与管理标准的对接,形成“技术—产业—规范”三位一体的协作局面。人工智能立法亦应采取学科交叉型立法专家组的基本模式,并在此过程中将一些技术用语转译为可被理解、可资遵循的规范内容。同时,在人工智能立法过程中需要充分考虑人工智能系统的发展速度,在法律条文中吸取专业技术知识来提升监管质效并降低监管风险,明确人工智能立法中的监管重点。人工智能技术迭代的高速性与业态创新的复杂性形成独特挑战,若人工智能立法中嵌入过于严苛、固化的技术标准,不仅可能导致规范条文在颁布时即滞后,更会形成对技术创新的制度性枷锁。过度严苛的技术标准还可能引发合规成本转嫁困境,容易导致市场资源向少数具备合规能力的大型企业集中,不利于推动智能平权。事实上,人工智能立法的核心要义应在于构建具有弹性的规范框架,以原则性规定确立行为边界,以技术中性条款预留发展空间,以动态调整机制回应创新需求。在吸取专业技术知识的基础上,人工智能立法过程会更加科学,其可以对人工智能系统提供有效的法律保护机制,同时避免过度监管后反向限制人工智能系统的发展潜力。

总之,面对着以数字开源为基本立场的人工智能立法的新要求,既往部门性立法的价值适应性缺失、治理主体协同性效应不彰且容易造成大量的重复性立法。实现从部门性立法向领域性立法的转型,通过框架性立法、适应性治理和国际性贡献三个方面可形成开源人工智能协同性治理的新方案。在此基础上,人工智能的领域性立法需在横向上与其他部门法、在纵向上与其他学科专业知识进行有效协同,最终促成人工智能立法体系的科学性。

五、结语

当前我国的人工智能系统发展方兴未艾,以DeepSeek为代表的新兴人工智能系统拉开了数字开源时代的序幕,那么相应的人工智能立法过程也需要对此作出积极回应,并在立法过程中预先完善相应的法律监管措施来提升法律保障水平,以实现智能平权的时代要求。在人工智能立法过程中,以数字开源作为人工智能立法的基本立场,在人工智能立法中保护数据被开源架构处理的过程,并对人工智能系统中的数据进行分类分级监管,在保障数据全生命周期安全的同时减少法律监管的负面影响。在人工智能的领域性立法架构中,不仅要在横向上完善人工智能立法与其他法律规范的衔接模式,还要在纵向上提升人工智能立法的科学性,最终制定契合数字开源时代人工智能系统发展需要的“良法”,并实现针对人工智能系统的“善治”。

 

【注释】

[1]参见王慧慧、龚雯:“李强出席2025世界人工智能大会暨人工智能全球治理高级别会议开幕式并致辞”,载《光明日报》2025年7月27日,第2版。

[2]参见陈禹衡:“开源生成式人工智能的法律监管范式转型——以 DeepSeek为研究视角”,《上海政法学院学报(法治论丛)》2025年第4期,第112—113页。

[3]参见刘艳红:“生成式人工智能的三大安全风险及法律规制——以 ChatGPT为例”,《东方法学》2023年第4期,第29页。

[4]See Reuters, “French Privacy Watchdog to Quiz DeepSeek on AI and Data Protection Risks,” https://m.economictimes.com/tech/technology/french-privacy-watchdog-to-quiz-deepseek-on-a-iand-data-protection-risks/articleshow/117751269.cms, last visited on 3 January 2026.

[5]See Australian Department of Home Affairs, “Consultation Paper,” p. 6, https://www.homeaffairs.gov.au/how-to-engage-us-subsite/files/consultation-on-enhancements-to-cirmp-rules/consultation-paper-proposed-amendments-enhance-cirmp.pdf, last visited on 3 January 2026.

[6]参见丁晓东:“全球比较下的我国人工智能立法”,《比较法研究》2024年第4期,第63页。

[7]胡凌:《数字架构与法律:互联网的控制与生产机制》,北京大学出版社2024年版,第11页。

[8]习近平:《习近平谈治国理政(第五卷)》,外文出版社2025年版,第455页。

[9]See Open Source Initiative, “The Open Source Al Definition (version 1.0),” https://opensource.org/a/iopen-source-a-idefinition, last visited on 16 December 2025.

[10]参见周辉:“开源人工智能模型的法律治理”,《上海交通大学学报(哲学社会科学版)》2024年第8期,第21页。

[11]参见徐进、王珏:“开源人工智能‘伦理—技术共构’的治理范式演进”,《华东师范大学学报(哲学社会科学版)》2025年第4期,第27页。

[12]参见孙军、张应语:“开源模式的创新范式——从 DeepSeek说起”,《求索》2025年第2期,第145—149页。

[13]武延军:“DeepSeek引发的 AI创新和开源生态发展的思考”,《中国科学院院刊》2025年第3期,第447页。

[14]参见谢新水:“智能跃迁、开源创新与主权 AI:DeepSeek现象推动人工智能开源创新生态体系建设”,《电子政务》2025年第3期,第40页。

[15]See Gal Nagli, “Wiz Research Uncovers Exposed DeepSeek Database Leaking Sensitive Information, Including Chat History,” 29 January 2025, https://www.wiz.io/blog/wiz-research-uncovers-exposed-deepseek-database-leak, last visited on 16 December 2025.

[16]姜敏:“论刑法预防性立法的前瞻性责任及其实践限缩”,《中国刑事法杂志》2025年第3期,第60页。

[17]祝建军:“开源软件的著作权保护问题研究”,《知识产权》2023年第3期,第36页。

[18]参见中华人民共和国最高人民法院民事判决书,(2021)最高法知民终2063号。

[19]参见中华人民共和国最高人民法院民事判决书,(2021)最高法知民终2298号。

[20]参见中华人民共和国最高人民法院民事判决书,(2019)最高法知民终663号。

[21]See Select Committee on the CCP, “DeepSeek Unmasked: Exposing the CCP’s Latest Tool for Spying, Stealing, and Subverting U.S. Export Control Restrictions,” https://selectcommitteeontheccp.house.gov/media/investigations/deepseek-unmasked-exposing-ccps-latest-tool-for-spying-stealing-and-subverting-us, last visited on 16 December 2025.

[22]参见林轲亮:“新质生产力催生下的新兴权利:类型分野、生成标准及法治保障”,《广西大学学报(哲学社会科学版)》2025年第3期,第158页。

[23]林洹民:“论人工智能立法的基本路径”,《中国法学》2024年第5期,第95页。

[24]参见刘艳红:“数据要素全生命周期安全风险的刑事保障制度研究——以数字经济安全法益观为视角”,《法学论坛》2024年第1期,第43页。

[25]宋华琳:“人工智能立法中的规制结构设计”,《华东政法大学学报》2024年第5期,第9页。

[26]熊波:“数据分类分级的刑法保护”,《政法论坛》2023年第3期,第157页。

[27](美)海伦·尼森鲍姆:《场景中的隐私:技术、政治和社会生活中的和谐》,王苑等译,法律出版社2022年版,第122页。

[28]See Ashley Deeks, “The Judicial Demand for Explainable Artificial Intelligence,” Columbia Law Review, Vol. 119, No. 7, 2019, p. 1829.

[29]参见邵鑫宇、高富平:“基于数据类型与特性的数据权利配置架构”,《苏州大学学报(法学版)》2025年第1期,第18页。

[30]王锡锌:“政务数据开放运营制度的目标偏离及纠偏”,《东方法学》2024年第4期,第109页。

[31]参见周佑勇:“中国行政法学学术体系的构造”,《中国社会科学》2022年第5期,第107页。

[32]程啸主编:《数据权益与数据交易》,中国人民大学出版社2024年版,第8页。

[33]不同于以往侧重个人数据的保护,现如今国家层面上亦鼓励个人数据的流通利用。在此背景下,应当限制个人数据自决权的作用范围,否定其一般性价值而仅在私密信息场合下发挥作用,由此实现保护与流通利用的平衡。

[34]参见李爱君、夏菲:“论数据产权保护的制度路径”,《法学杂志》2022年第5期,第21页。

[35]李墨丝:“CPTPP+数字贸易规则、影响及对策”,《国际经贸探索》2020年第12期,第27页。

[36]参见高富平:“数据持有者的权利配置——数据产权结构性分置的法律实现”,《比较法研究》2023年第3期,第34页。

[37]参见王锡锌:“数字行政与行政职权配置的变革逻辑”,《环球法律评论》2025年第5期,第21页。

[38]参见上海市市场监督管理局沪市监反垄处〔2024〕202302号行政处罚决定书。

[39]See Dane Chapman, “The Ideal Approach to Artificial Intelligence Legislation: A Combination of the United States and European Union,” University of Miami Law Review, Vol. 78, No. 1, 2023, pp. 272-282.

[40]周佑勇:“从部门立法到领域立法:数字时代国家立法新趋势”,《现代法学》2024年第5期,第5页。

[41]周佑勇:“中国行政基本法典的精神气质”,《政法论坛》2022年第3期,第62页。

[42]张新宝、魏艳伟:“我国人工智能立法基本问题研究”,《法制与社会发展》2024年第6期,第5页。

[43]杨延超:“我国人工智能立法的制度创新与路径选择”,《治理研究》2025年第2期,第21页。

[44]参见储陈城:“间接治理:刑法应对数字技术风险的基本模式”,《法学论坛》2025年第1期,第66—68页。

[45]参见林华:“中国行政法学自主知识体系的探索与构建(2022—2024年)”,《法律适用》2025年第1期,第24页。

[46]周辉:“人工智能综合性立法及其实现”,《法学研究》2025年第6期,第132页。

[47]刘艳红:“网络暴力治理的法治化转型及立法体系建构”,《法学研究》2023年第5期,第87—88页。

[48]齐文远:“新时代中国刑法在犯罪治理中的应然走向”,《文化与传播》2024年第3期,第86页。

[49]张凌寒:“中国需要一部怎样的《人工智能法》?——中国人工智能立法的基本逻辑与制度架构”,《法律科学》2024年第3期,第5页。

[50]李学尧:“人工智能立法的动态演化框架与制度设计”,《法律科学》2025年第3期,第34页。

[51]刘艳红:“合规驱动:民行刑协同共治数字经济安全风险防范体系构建”,《江苏社会科学》2024年第1期,第190页。

[52]莫纪宏:“‘法学学’视野下中国法学‘三大体系’构建的方法论路径”,《法制与社会发展》2023年第6期,第27页。

[53]许韬:“中国人工智能立法的国际化叙事策略与展开”,《法治研究》2025年第3期,第45页。

[54]朱春艳、李东洺、陈凡:“关于科技创新重要论述的系统思维探析”,《系统科学学报》2024年第3期,第43页。

[55]参见陈坤:“‘四法并置’:迈向适应性治理范式的人工智能立法”,《法学论坛》2025年第4期,第41页。

[56]参见胡铭、洪涛:“我国人工智能立法的模式选择与制度展开——兼论领域融贯型立法模式”,《西安交通大学学报(社会科学版)》2024年第4期,第132页。

[57]参见蔡士林:“数据安全保护积极刑法观的理论证成与制度型构”,《中国矿业大学学报(社会科学版)》2024年第4期,第167—170页。

[58]参见于改之:“从控制到利用:刑法数据治理的模式转换”,《中国社会科学》2022年第7期,第73页。

[59]参见刘艳红:“轻罪时代我国应该进行非犯罪化刑事立法——写在《刑法修正案(十二)》颁布之际”,《比较法研究》2024年第1期,第21页。

[60]董慧娟、丁丽文:“沙盒监管嵌入中国人工智能风险治理体系的必要性及其标准化机制建构”,《世界社会科学》2025年第6期,第92页。

[61]参见赵炳昊:“数字时代加密货币洗钱犯罪的防治”,《中国刑事法杂志》2022年第5期,第61—62页。

 

刘艳红,中国政法大学刑事司法学院教授

进入 刘艳红 的专栏     进入专题: 智能平权   人工智能立法  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/172944.html
文章来源:本文转自中外法学,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统