陈亮:人工智能立法对事效力框定标准的理论证成

选择字号:   本文共阅读 73 次 更新时间:2026-01-22 21:01

进入专题: 人工智能立法   对事效力   调整客体  

陈亮  

 

【摘要】对事效力是人工智能法的基础性问题,人工智能法对事效力的框定,既关乎人工智能法学自主知识体系的构建,也为人工智能立法、执法、司法与守法提供关键指引。人工智能作为包含数据、网络、算法、算力及具体应用的有机系统,构成对事效力的初次框定基础,其调整范围覆盖全生命周期的涉数、涉网、涉算、涉用行为;人工智能法聚焦现行法律难以应对的社会损害救济与预防,完成对事效力的二次框定;以 “负责任人工智能” 为理念欲求,将全生命周期利害关系人纳入规制范畴,实现三次框定。经由调整客体、规范性质和理念欲求三种核心框定标准,人工智能法既区别于救济个体私益的私法,也不同于其他救济社会公益的公法,对推动人工智能法治体系完善具有重要理论与实践价值。

【关键词】人工智能法 对事效力 调整客体 规范性质 理念欲求

【中图分类号】D99/TP18 【文献标识码】A

 

国务院于2017年7月印发的《新一代人工智能发展规划》提出,自2020年至2030年的十年间,分三步构建完备的人工智能法律法规体系,为我国跻身世界主要人工智能创新中心提供坚实法治保障。当前,我国人工智能立法工作正稳步推进,既需统筹考虑国际竞争与合作的双重态势,也需深化理论研究以更好地对接实践需求。而人工智能法的效力范围,正是这一领域尚未形成广泛共识、亟待学界充分关注与深入探讨的重大理论问题。

人工智能法的效力范围涵盖对人效力、对事效力、时间效力与空间效力四大维度。其中,对事效力具有基础性地位,在一定程度上影响乃至决定着其他三种效力范围的边界尺度。所谓对事效力,又称事项效力,通常是指某一法律对特定主体的相关行为、事项及社会关系所具有的有效力,其核心问题指向是国家在与国民的关系中享有多大权限的问题。[1]当前,国内外关于人工智能法对事效力的研究成果尚不多见。据笔者梳理的资料,国内青年学者韩旭至曾从立法目的和基本范畴双重视角,探讨我国人工智能法的应然调整范围,[2]国外学者约纳斯·许特(Jonas Schuett)和汉娜·鲁舍迈尔(Hannah Ruschemeier)则在批判单纯以人工智能概念划定人工智能法对事效力之缺陷的基础上,提出以“风险类型”作为界定人工智能法事项效力范围的主要依据。[3]本文认为,人工智能法对事效力范围的界定,既取决于其调整客体——人工智能的内涵和外延,亦与人工智能法同其他法律部门的具体分工密切相关。因此,“调整客体”、“规范性质”和“理念欲求”应成为框定人工智能法对事效力的主要标准。

“调整客体”标准:第一性原理视域下人工智能法对事效力的初次框定

第一性原理(first principle thinking)思维是指通过将复杂问题分解为最基本的事实或假设,再以此为基础重建思考的方法,其核心在于将特定事物解构为各种要素进行分析,进而找到实现特定目标的最优解。第一性原理是古希腊哲学家亚里士多德的哲学体系的核心概念,始终贯穿西方哲学发展历程,并在科学、商业乃至法学等各个领域持续演化。第一性原理思维对于人工智能法对事效力范围的框定具有重要方法论价值,这意味着人工智能法所追求的规制理念之实现,必然依托于人工智能的各构成要素,也依托于人工智能全生命周期中各利害关系人的具体行为。由此可见,人工智能的内涵界定在人工智能法律规制中具有前提性意义。[4]对人工智能概念进行“庖丁解牛”式的拆解,精准把握其具体构成要素,以及各要素在实现人工智能规制理念中的地位与作用,是框定人工智能法对事效力应然范围的必然要求。

自1956年达特茅斯会议提出“人工智能”这一概念至今,其内涵与外延便成为学界热议的焦点话题,甚至引发所谓“人工智能学术文章的恶性膨胀”现象。不同学科的学者基于各自的概念界定诉求,大致形成了三种表述各异、内涵不一的人工智能概念:技术专家立足人工智能研究需求,从“内部”视角将其界定为一门“科学”,旨在厘清人工智能学科的范围边界、长远目标及实现该目标的具体路径;社会技术专家则聚焦人工智能对现实世界的影响,从“外部”视角将其界定为包括开发者、维护者在内的“社会技术系统”,旨在解答人工智能核心要素(如算力、数据及劳动力等)的地缘政治学或政治经济学意义,以及能力各异的人工智能如何催生各领域多样化应用,进而塑造新的行为模式或社会影响;规制学界与规制机构以实现人工智能的科学规制为目标,将其视为法律规制的对象,借此明确法律法规与治理机制的具体适用范围。这三种定义虽各有其合理性,却均无法为人工智能法对事效力的具体框定提供有效指引。三种定义的共同问题在于,未能从技术架构视角界定人工智能的概念内涵与外延,而技术架构恰恰是所有人工智能法律法规必须聚焦的核心,更是法律根据不同参与者在人工智能技术管理中的地位与作用,为其配置相关权利义务的必然要求。

依据第一性原理思维,划定人工智能法对事效力的最优路径,在于精准锚定人工智能技术架构的核心要素。学界普遍认可,人工智能是连接数据、算法和算力的技术集合,数据、算力、算法是人工智能的三个核心要素,统称为“人工智能三件套”(AI triad),三要素相互依存、相互影响、相互作用,共同决定着人工智能的性能水准。其中,数据被誉为人工智能的“石油”,是人工智能算法用于学习、适应和作出预测的原始素材,数据的质量、数量、多样性及代表性等,直接影响人工智能系统的性能;算法被誉为人工智能的“大脑”,作为解决问题或完成任务的一系列指令,决定着机器如何从数据中学习、处理信息并作出决策,是调控人工智能系统行为的智能指令;算力则指大规模运行算法所需的软硬件基础设施。

事实上,“人工智能三件套”并未完全涵盖决定人工智能性能的全部核心要素。人工智能并非单一技术,而是由多个相互关联的工具组合而成的“工具箱”(toolbox)。这一“工具箱”属于不断扩展的开放系统,其内容包括但不限于数据、算法、算力、数字平台乃至人工智能应用本身。鉴于“工具箱”内各工具之间的相互依存、影响与作用,对人工智能的规制或治理不能孤立聚焦其中某一个或某几个要素,而应在厘清各要素间相互关系的基础上,构建体系化的管控框架。

系统论思维为体系化处理“工具箱”内各要素的相互关系提供核心理论支撑。系统是指由相互作用、相互依赖的若干组成部分结合而成的有机整体,具有组件、流程、边界、协同作用与反馈循环等特征,[5]而系统论思维则被描述为通过整体与关系而非拆分部分的方式,为复杂世界提供有意义解释的视角、语言与工具,对于解决复杂问题、解释非线性行为,以及厘清国家、组织与个人间看似不合逻辑的行为,具有非常重要的作用。[6]在系统论思维看来,人工智能可被描绘为包含输入、转换、输出与反馈回路的系统,[7]其核心逻辑具体可通过图形表示如下(见图1)。

陈亮1

如图表明,人工智能首先需从虚拟或现实环境中感知各类信息,这些信息以数据形式交由算法处理后,形成预测、内容、建议或决策等各类输出,这些输出要么作为反馈形成新数据,再次提交算法处理以进一步优化输出(图1闭环一),要么直接作用于虚拟或现实环境,其反馈结果将成为算法处理的新对象(图1闭环二)。至此,我们可大致提炼出人工智能不可或缺的五个核心要素:数据、网络、算法、算力及人工智能具体应用。其中,网络源自现实或虚拟环境,既是人工智能训练数据之源,也是人工智能影响现实环境的媒介,因而成为人工智能系统不可或缺的核心要素;数据被誉为人工智能的“血脉”,是算法学习、适应与预测的原始素材,更是人工智能处理信息、执行复杂任务的关键支撑,因而也是人工智能系统不可或缺的核心要素;算法作为人工智能的“大脑”,承载着完成特定任务必需的各类规则与指令,同样不可或缺;算力指大规模运行人工智能算法所需的软硬件设施,不仅决定算法处理数据的规模与效率,还影响人工智能模型的智能水平,因而成为人工智能规制与治理的重要对象;人工智能具体应用同样源自虚拟或现实环境,在闭环二中发挥关键作用,通过反馈循环的方式影响甚至决定人工智能的性能表现。人工智能这五个核心要素,具有重要规制意义,有助于政策制定者明确管控各构成要素所需的各类监管手段与工具,最终保障规制目标的实现。

综上,我们可将人工智能界定为包含数据、网络、算法、算力及具体应用在内的有机系统,这五个要素是其不可或缺的核心组成部分,相互依存、影响与作用,共同决定人工智能模型的性能层级。因此,人工智能法不应仅关注人工智能的具体应用场景,而要将其视为一种动态复杂系统,进行体系化监管。[8]复杂性理论中的“蝴蝶效应”指出,非线性复杂动态系统对初始条件具有高度敏感依赖的特征,初始条件的任何微小变化,均可能引发截然不同、往往难以预测的长期结果。[9]因此,人工智能这一复杂系统的全部核心要素,均应纳入人工智能法的调整范围。申言之,人工智能法的对事效力,应大体框定在人工智能研发、部署与使用全生命周期中的涉数(数据)、涉网(网络)、涉算(算力和算法)和涉用(人工智能具体应用)等具体行为。但需明确的是,并非所有此类行为均应由人工智能法调整,比如,侵犯个人隐私的涉数行为,本质上更适合交由民法(尤其是个人信息保护法)等私法规范调整。这意味着,除“调整客体”标准外,还需其他用以框定人工智能法对事效力范围的标准。

“规范性质”标准:部门法分工视域下人工智能法对事效力的二次框定

一国调整其成员行为的法律规范浩如烟海、体系错综复杂,给法律的学习、研究、梳理和适用带来困扰。自古罗马时期至今,解决这一难题的常用办法是:依据理念欲求、调整对象及规范性质等指标的相似程度,对本国全部法律规范进行分类或分组,进而划分出理念各异、对象分殊、性质迥异的法律部门或法律领域,如公法与私法、实体法与程序法、国内法与国际法之分等。这种分类以体系化方式整合一国复杂的法律体系,厘清各种法律规则之间的相互关系及彼此影响,从而为法律的学习、遵守、适用乃至续造提供便利。

在众多法律分类中,以填补损害或预防风险为核心目的,亦是一项重要的分类标准。填补损害、预防风险不仅是一国干预国民生活的正当性基础,还决定着国家干预国民生活的具体法律方式与手段,甚至可能成为某一法律的核心概念。[10]因此,厘清人工智能领域的损害(风险)及其性质,是探讨人工智能法规范性质的关键前提。

自约翰·斯图亚特·密尔在其著作《论自由》中提出“损害原则”以来,学界对损害概念的界定从未停歇。[11]从最广泛的意义上讲,“损害”指对他人造成的任何不利后果,或是使特定主体境况恶化的任何情形,这意味着损害的认定,需以某种基准为参照进行比较。而比较基准的差异,决定了损害概念内涵与外延的不同:一是时间基准(temporal comparative account),即损害是指相较于行为或事件发生前,特定主体境况出现的所有恶化情形;二是人类福祉基准(mankind comparative account),即以人类平均福祉为比较基准,凡使特定主体的福祉低于人类平均福祉的情况,均可认定为损害;三是反事实基准(counterfactual comparative account),即若未发生某个事件或行为,特定主体的境况本会更好,这种“本可避免的恶化”即构成损害;四是道德原则基准(moralized harm principle),即强调造成损害的作为或不作为须具备道德可责性。[12]尽管这四种基准厘定的损害概念具有一定合理性,但仍无法为国家干预国民社会生活提供明确而具体的指引,既难以避免国家干预过宽或过窄的风险,也难以有效平衡个体自由与国家干预之间紧张而微妙的关系。

“损害”是密尔用以划定个人自由边界的基础性概念,其内涵与外延本应是密尔讨论的重点。遗憾的是,在密尔的《论自由》中,“损害”概念的内涵与外延并未得到系统、充分的讨论,仅散见于书中某些段落的只言片语,既潜藏于损害概念与自由原则的关联之中,也蕴含在密尔关于国家强制干预国民生活合法性的诸多论述里。从这些论述中,我们可大致梳理并推导出密尔“损害”概念的三个特征:一是涉他性,即损害是行为主体之外的其他人感知到的不利后果,包括个人、集体和作为整体的社会所感知到的不利后果。密尔指出,“一个人的行为的任何部分一到有害地影响到他人利益的时候,社会对它就有了裁判权”,而“当一个人的行为并不影响自己以外的任何人的利益,或者除非他们愿意就不需要影响到他们时(这里所说的有关的人都指成年并具有一定理解力的人),那就根本没有蕴蓄任何这类问题之余地”,[13]这些表述充分证明密尔损害概念的“涉他性”特征。二是损益性,即损害是对他人利益的减损,会导致他人的需求无法通过相应客体得到满足。密尔指出,“至于对他人有害的行动,那就需要有完全不同的对待了”。这里的“有害”,是指“侵蚀他人的权利,在自己的权力上没有正当理由而横加他人以损失或损害,以虚伪或两面的手段对付他人,不公平地或者不厚道地以势凌人,以至自私地不肯保护他人免于损害——所有这些都是道德谴责的对象,在严重的事情中也可成为道德报复或道德惩罚的对象”,[14]这意味着“减损他人利益”是密尔损害概念的又一重要特征。三是可责性,即减损他人利益的行为具有法律或道德上的可责性,应受到法律的惩处或道德谴责。密尔认为:“如果一个人的行为既没有违反对于公众的任何特定义务,也没有对自己以外的任何个人发生什么觉察得到的伤害,而由这种行为产生出来对社会的损害也只属非必然或者说是推定的性质,那么这一点点的不便利,是社会为着人类自由的更大利益之故事能够承受的。”[15]可见,密尔的损害概念具有浓厚的规范意蕴,其是保障个体自由免受国家不当干预的“试金石”,也是平衡个体自由与国家干预的“压舱石”,其相对严苛的内涵为最大限度保障国民个体自由提供支撑。

在损害概念的三个基本特征中,“涉他性”对确定损害救济与预防相关法律规范的性质具有关键意义。这里的“他”既可能是个体或集体,也可能是不特定的社会公众,而不同主体所受损害的救济,往往分属不同的法律部门或领域。若“他”为个体或集体,损害救济通常归属于民法(调整平等主体之间的关系)或行政法(调整不平等主体之间的关系);若“他”为不特定社会公众,损害救济则可能归属于经济法。人工智能全生命周期的各类要素及其模型应用所引发的损害,既包括个体损害、集体损害,也涵盖社会损害。其中,针对个体损害与集体损害的救济,现行法律法规或可直接适用,或经适度修正与调整后适用;但对于其中的社会损害,现行法律体系尚难以应对。有鉴于此,人工智能法应聚焦社会损害的救济与预防。

社会损害的救济与预防面临一大核心困境:作为受害人的社会公众,因“理性经济人”的本性,天然存在“搭便车”的倾向,由此造成社会损害救济与预防中的“公地悲剧”;而作为公共利益受托人的一些地方政府,因与作为委托人的社会公众存在目标函数差异,易出现逆向选择、道德风险、规制俘获、设租与寻租等损害委托人利益的现象。因此,解决人工智能全生命周期中因政府失灵与市场失灵导致的社会公共利益受损问题,应成为人工智能法的主要目标追求(见图2),这也表明,人工智能法本质上属于规制法的范畴。

陈亮2

“理念欲求”标准:部门法分工视域下人工智能法对事效力的三次框定

除了从受害主体视角划分一国法律体系之外,理念欲求亦是区分不同法律部门的重要标准。举例而言,同样是私主体所遭受的人身或财产损害,若以保障受害人的意思自治为宗旨,则归属于以“私法自治”为理念欲求的民法范畴;若以防范行政机关的滥权或恣意行为为目标,则归属于以“控权”为理念欲求的行政法调整范畴。从这个意义上讲,人工智能法的理念欲求,是框定人工智能法对事效力的另一重要标准。

法律理念是指法追求的价值目标或者关于法应该是什么样的理想,是“法律的灵魂”,“代表了社会中公认的某种终极理想和价值”。[16]从这一维度而言,人工智能法的理念欲求,必然蕴含于人类关于技术伦理的持久探讨之中,是对人工智能发展和治理伦理基础的高度凝练与系统概括。

技术伦理是指导技术发展的道德原则总称,其核心宗旨在于确保技术创新与发展能够造福整个人类社会。对新兴技术的伦理关切,始于21世纪早期,其开端为吉姆·穆尔(James Moor)于2005年发表的奠基性论文《我们为什么需要为新兴技术提供更好的伦理学》。自此之后,原本分散、被动、方法论不成熟,且重点关注成熟技术且缺乏政策导向的伦理学研究,开始转向更为聚焦、主动、方法论成熟,且重点关注新兴技术注重政策导向的独立研究领域,[17]而旨在确保技术发展契合社会期待与价值观的“负责任创新”理念,也正是在这一过程中逐步被提出并得以固化。

从最广泛的意义而言,“负责任创新”通常指以符合伦理、可持续理念及社会价值期待的方式,对新技术进行设计、部署与应用的具体实践。学界将其描述为“一个透明的互动过程”,在此过程中,“社会参与者与创新者能够相互响应,以关注创新过程及其产品在伦理可接受性、可持续性以及社会期待方面的表现”,其核心要义在于要求所有参与新技术开发的利益相关者,均需对其开发的技术承担责任。

人工智能作为一项新兴的颠覆性技术,理应遵循新兴技术伦理的一致共识,而以人工智能为其规制对象的人工智能法,则肩负着将“负责任创新”内化为自身理念与制度内核的时代使命。有鉴于此,将“负责任人工智能”确立为人工智能法的理念欲求,正是“负责任创新”这一公认的技术伦理原则在人工智能法律规制领域的具体细化。所谓“发展负责任的人工智能”理念,是关于人工智能应如何研发、部署、使用、评估以及治理的提议或规范性声明,[18]其由一系列确保人工智能透明、负责和合乎道德的基本原则所构成,旨在推动人工智能技术的应用与民众的期望值、组织的价值观及社会的法律规范相契合。[19]“发展负责任的人工智能”理念及其所蕴含的原则,涵盖人工智能全生命周期所需的各项要求,能够最大限度地预防或降低人工智能应用中的不利后果,因而受到世界各国的青睐,并被纳入各国政策文件与立法规范,成为公共部门与私营企业必须遵守的行为准则。

“负责任人工智能”的理念,对人工智能全生命周期所有利害关系人均提出要求,进而具备框定人工智能法事项效力具体范围的功能。该理念旨在推动社会参与者与创新者形成相互响应,进而使其创新过程及相关产品符合伦理准则、可持续性及社会期待。依据利害关系人理论,人工智能全生命周期的社会参与者,理应涵盖保障人工智能实现负责任发展所需全部要素的相关参与者。如前文所述,构成人工智能系统的核心要素包括数据、网络、算法和具体应用场景,这意味着人工智能全生命周期中的涉数主体、涉网主体、涉算主体及涉用主体,均属于人工智能法事项效力中所指向的特定主体。

结语

科学框定人工智能法的对事效力,具有极为重要的理论和现实意义。从理论层面而言,这既是人工智能法区别于其他法律部门的重要标识,也是构建人工智能法学自主知识体系的关键依托。从实践层面来看,其更是人工智能立法、执法、司法和守法的具体遵循,关乎人工智能立法效果的最终达成。在人工智能深度融入人类社会生活的当下,人工智能立法的紧迫性愈发凸显,而对人工智能法对事效力的框定,则属于人工智能立法的前提性问题,亟需学界紧扣人工智能法的理念欲求,结合人工智能法所欲救济的损害类型与性质,准确且科学地框定人工智能法的对事效力,贡献理论智慧、凝聚行业与社会共识。

注释

[1]付子堂主编:《法理学初阶》,北京:法律出版社,2009年,第144页。

[2]韩旭至:《人工智能法的调整范围》,《北京航空航天大学学报(社会科学版)》,2024年第3期。

[3]J. Schuett, "Defining the Scope of AI Regulations: Law," Innovation and Technology, 2023, 15(1); H. Ruschemeier, "AI as a Challenge for Legal Regulation: The Scope of Application of the Artificial Intelligence Act Proposal," ERA Forum, 2023, 23(3).

[4]在人工智能立法中,“人工智能”的概念界定同时具有三重功能:一是表达功能,也就是澄清人工智能法的立法意图;二是划界功能,即划定人工智能法的事项效力;三是履行功能,即不仅是特定法律主体享有权利和承担义务的依据,也是执法和司法解释的重要依据。参见J. Schuett, "Defining the Scope of AI Regulations: Law," Innovation and Technology, 2023, 15(1)。

[5][7]M. S. S. EI Namaki, "A Systematic Approach to the Artificial Intelligence Concept," Journal of Knowledge Management Application and Practice, 2019, 1(2).

[6]I. Dula; T. Berberena; K. Keplinger and M. Wirzberger, "Hooked on Artifical Agents: A Systems Thinking Perspective," Frontiers in Behavioral Economics, 2023.

[8]Y. Arbel; M. Tokson and A. Lin,"Systemic Regulation of Artificial Intelligence," Arizona State Law Journal, 2024.

[9]E. Ferrara, "The Butterfly Effect in Artificial Intelligence System: Implications for AI Bias and Fairness," Machine Learning with Applications, 2024.

[10]A. C. Lin, "The Unifying Role of Harm in Environmental Law," Wisconsin Law Review, 2006.

[11]密尔在其著作《论自由》一书中提出“损害原则”,用以讨论社会所能合法施于个人的权力的性质和限度。该书全部内容可以高度概括为两个基本原则:一是个人的行为只要不涉及他人的利害,个人就有完全的行动自由,不必向社会负责;他人对于这个行为不得干涉,至多可以进行忠告、规劝或避而不理;二是只有当个人行为危害到他人利益时,个人才应当接受社会或法律的惩罚,社会只有在这个时候才对个人有裁判权,也才能对个人施加强制力量。参见约翰·密尔:《论自由》,许宝骙译,北京:商务印书馆,2007年,第112页。

[12]A. Folland, "The Harm Principle and the Nature of Harm," Utilitas, 2022.

[13][14][15]约翰·密尔:《论自由》,许宝骙译,北京:商务印书馆,2007年,第90、93、98页。

[16]郑成良:《法律、契约与市场》,《吉林大学社会科学学报》,1994年第4期。

[17]P. A. E. Brey, "The Historical Development of Ethics of Emerging Technologies," Minds and Machines, 2025, 35(2).

[18]A. Theodorou and V. Dignum, "Towards Ethical and Social-Legal Governance in In AI," Nature Machine Intelligence, 2020, 2(1).

[19]P. Mikalef et al., "Thinking Responsibly about Responsible AI and 'the Dark Side of AI'," European Journal of Information Systems, 2022, 31(3).

The Theoretical Justification for Establishing Standards

of Effectiveness in AI Legislation

Chen Liang

Abstract: The scope of substantive effect constitutes a foundational core issue in AI law. Defining this scope not only concerns the construction of an autonomous knowledge system for AI jurisprudence but also provides critical guidance for AI legislation, law enforcement, adjudication, and compliance. As an organic system encompassing data, networks, algorithms, computing power, and specific applications, AI constitutes the foundational basis for the initial delineation of substantive effect. Its regulatory scope covers data-related, network-related, computation-related, and application-related behaviors throughout the entire lifecycle. AI law addresses social harm remediation and prevention beyond existing legal frameworks, achieving a secondary delineation of substantive effect. Guided by the principle of "Responsible AI," it incorporates stakeholders throughout the entire lifecycle into regulatory frameworks, realizing a tertiary delineation. Through three core delimitation criteria—regulatory objects, normative nature, and conceptual aspirations—the AI Law distinguishes itself from private law, which remedies individual private interests, and from public law that address social public interests. This approach holds significant theoretical and practical value for advancing the refinement of the AI legal system.

Keywords: artificial intelligence law, substantive effect, regulatory objects, normative nature, conceptual aspirations

 

陈亮,西南政法大学人工智能法学院院长、教授、博士生导师。研究方向为人工智能法学基础理论、算法规制,主要论文有《人工智能立法背景下人工智能的法律定义》《人工智能立法体系化的理论证成与路径选择》《算法驱动下平台媒体监管范式的重构》等。

来源: 《人民论坛·学术前沿》2026年第1期

    进入专题: 人工智能立法   对事效力   调整客体  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/172020.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统