张学博:数字时代法治政府建设中难点问题分析

选择字号:   本文共阅读 55 次 更新时间:2026-03-29 22:08

进入专题: 数字时代   法治政府   生成式人工智能  

张学博  

 

【提 要】在数字技术深刻重塑政府治理的背景下,生成式人工智能为法治政府建设带来双重影响:一方面,其通过智能决策辅助、精准执法优化和个性化政务服务,显著提升行政效能与公众满意度;另一方面,数据隐私泄露、算法黑箱效应、法律责任模糊及技术成本攀升等问题,对政府治理权威与公共利益构成挑战,成为数字时代法治政府建设的难点问题。从马克思主义法学理论的基本观点出发,生成式人工智能的应用需以“人本治理”为核心,通过技术赋能与制度约束协同,推动数字时代法治政府实现效率与公平的双重跃升,这需要构建完善的数据分类分级管理体系,加强算法透明审查。同时,还需完善针对人工智能的专门立法,以明确多方主体责任,并创新动态监管机制,以平衡技术创新与风险防控之间的关系。

【关键词】生成式人工智能 数字时代 法治政府 监管规制

 

《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》提出:“全面实施‘人工智能+’行动,加强人工智能同产业发展、文化建设、民生保障、社会治理相结合。”[1] 随着区块链、大数据、人工智能等技术集群的爆发式发展,人类社会正经历着“数字达尔文主义”式的深刻变革。在此背景下,以数据驱动治理逻辑、以数字化与智能化行政为特征的社会变革,促使法治政府建设遭遇两次范式转换。一是数字行政、智能决策、云端治理等技术治理方式正深刻挑战传统政府运行模式,二是技术加持正从技术治理的工具层面上升为制度治理的创新层面。生成式人工智能作为人工智能领域的一项革命性技术,为数字时代的法治政府建设带来重要机遇,有望深度重构行政组织架构、行为模式与程序流程,但生成式人工智能在政务应用中也面临数据安全与隐私保护、算法偏见与公平性、法律责任认定与监管等多重挑战,对数字时代法治政府建设构成潜在威胁。此外,如何确保政府在数字治理中的“领导力”,推动技术与治理深度融合,仍有待进一步厘清。因此,加强对生成式人工智能在法治政府建设中的应用与规制研究,有助于为政府提供科学指引,扎实推进数字时代法治政府建设。

一、数字时代法治政府的内涵演进与范式重构

传统法治政府的核心要素以保护公民权益和约束政府权力为基本的功能追求。生成式人工智能的高速发展,一方面提升了数字时代法治政府的科学性和前瞻性,另一方面也促进了数字法治政府的内涵演进与范式重构。

(一)传统法治政府的核心构建要素

现代国家治理模式的基本样态是法治型政府,即以法律的模式规范和约束政府行为,以维护公民的合法权益、实现和追求社会公平正义。传统法治政府的构建需要遵循的基本内容主要是对法治政府运作的功能加以规范化,即使进入数字时代,这些基本功能也都应予以规范并遵循。

在权责职能方面,传统意义上的法治政府主要追求权力在程序运行上的法定性、正当性及监管性。法定权力性即权力源自法律授权,必须在法律授权的权限范围内行使权力,不得超越职权行事。程序性即政府机关行使权力要履行法定程序来保障行政相对人的知情权、参与权与救济权。而监管性的实现,主要通过内部监管、外部监管方式来发挥作用。

公开公正也是传统法治政府的标准。政务公开是保障公民知情权、参与权和监督权的基础,政府应及时、准确向社会公开决策过程、行政行为、财政预算等信息,确保权力在阳光下运行。在决策过程中应广泛听取社会意见,兼顾各方利益,增强政策的科学性与民主性。执法公正则要求执法机关严格依法履职,杜绝以权谋私和权力滥用,确保执法全过程合法、公正。

(二)数字时代对法治政府建设的新要求

现代法治政府需对海量数据资源进行系统性的采集、存储、管理与分析,进而挖掘其深层价值,精准把握社会动态与公众需求,为政策制定提供科学依据。为应对传统服务流程碎片化、供给滞后于需求等问题,政府需借助技术手段重构服务模式,构建覆盖全生命周期的智能化服务体系。具体而言,可依托技术优化政务流程,将“网上办事”从被动响应升级为主动感知,运用大数据实时捕捉民众需求。此外,在数据治理背景下,政府应预设必要的人工复核机制并保留“人在回路”的弹性空间,从而消除算法对人类的“恶意”治理。

而在决策机制上,数字时代对政府决策能力提出了更高要求。政府需要超越传统依赖经验的主观模式,转向基于数据的客观决策。具体而言,应通过对海量数据的挖掘与分析,为决策提供坚实依据;运用数据建模手段,前置识别政策执行中可能存在的风险,从而提升决策的科学性与预见性。同时,必须增强决策透明度,利用网络平台拓宽公众参与渠道,广泛征询意见,以提升决策的合法性与民主化水平。

(三)生成式人工智能驱动下的法治政府范式跃迁

生成式人工智能增强行政决策的科学性与前瞻性。在数字时代法治政府建设的宏大背景下,行政决策的科学性、民主性和合法性已成为衡量政府治理能力的关键指标。生成式人工智能不仅为行政决策提供客观、透明的信息支撑,甚至可以提前识别技术、环境及社会等多维风险,通过数据模拟历史情况下政策方案的潜在结果,从而为政策制定者提供各种视角的政策制定依据。[2]

生成式人工智能推动行政执法的精准化与智能化。生成式人工智能在关键执法环节扮演重要的角色,在精准性方面,通过对海量数据的深度分析、智能算法识别与特征提取,能够精准锁定执法对象与违法行为,并为执法行动提供科学依据与优化方案。在智能性方面,生成式人工智能推动执法流程实现自动化与智能化升级。智能执法系统可对案件受理、调查、审批、处罚等环节进行全流程动态监管,并能实时、个性化回应公众咨询,从而简化冗余程序,全面提升执法效率与过程可控性。同时,通过规则化、标准化的判断确保公正性。

生成式人工智能实现政务服务的个性化与高效化。政务服务效能是衡量政府治理现代化水平的关键指标。基于预训练技术的生成式人工智能,凭借其高效的信息处理能力和人性化的交互特点,在提升政府内部办公效率、优化企业和群众办事体验方面发挥着重要作用。此外,生成式人工智能能够基于公众的个性化需求提供定制化政务服务,这种“千人千面”的服务模式,有效契合了公众的多样化需求,增强了其对政务服务的认同感与获得感。

传统法治政府注重权力的法定性、行使的正当性与监管的有效性。数字时代特别是人工智能技术的发展,对法治政府的治理能力与决策水平提出了更高要求。生成式人工智能在提升政府决策科学性、精准性和效率方面具有重要价值,同时也给行政相对人权利保障及救济途径带来新的挑战,亟待制度回应。

二、数字时代法治政府权力运行模式的变革与风险危机

生成式人工智能为数字时代法治政府建设注入了创新动能,但这一技术范式的革新性突破也如双刃剑般带来诸多不确定性。技术赋能与风险伴生的辩证关系,亟待我们在法治轨道上探寻平衡之道。

(一)权力运行的算法黑箱与偏见危机

算法的黑箱效应始终是生成式人工智能应用过程中不可回避的问题。政府机关在应用人工智能系统时,可能对系统中的算法与数据缺乏充分理解,甚至不清楚某些决策的形成过程,这直接违背了政务公开的基本原则。[3]尽管目前有DeepSeek等国产大模型能够详细列举其深度思考的过程,但能够完整呈现推理过程的产品仍属少数,而且出于技术保密或商业利益考虑,企业与机构往往不愿完全公开算法细节。即便公开,其高度专业化的技术内容也超出了普通用户的理解能力。为应对这一挑战,学界和产业界正在探索可解释人工智能,试图通过可视化工具将算法的运行逻辑转化为直观的图形与图表,提升非专业人士的认知可能。然而,此类方法在技术实现成本、实用效果等方面仍存在局限,尚难以系统性化解黑箱问题带来的信任与监管困境。

算法偏见的深层风险在于可能导致人的思维被代码所“驯化”。在行政裁量中,执法人员需综合考量法律规范、社会影响、当事人具体情况等多重因素。随着人工智能在行政决策中的引入,执法人员可能逐渐习惯于预设算法生成指令或判断建议,将“人”的执法趋于标准化和程序化。此种依赖算法的决策方式,在提升了便利性同时易忽视问题的复杂性,难以保障实质公平。

(二)数据驱动的权力与公民权利保障危机

在生成式人工智能赋能数字时代法治政府建设的过程中,数据隐私与安全风险构成其面临的第一挑战。数据收集、存储与利用任一环节的疏漏,均可能危及个人隐私安全、削弱政府公信力,甚至对国家社会发展与稳定构成威胁。

在数据收集环节,生成式人工智能首先面临数据来源合法性与合规性的挑战。为训练高性能模型,技术依赖海量数据支撑,但在数据收集过程中可能存在未经授权或超越授权范围进行数据采集的情况。[4] 此外,“数据投毒”风险亦不容忽视,攻击者可通过在训练数据中掺入虚假或恶意样本,导致其生成错误或带有偏见的结果。在数据存储方面,生成式人工智能系统面临内部管理疏漏与外部黑客非法入侵并窃取敏感数据的双重安全威胁。在数据使用环节,尽管民法要求数据使用须遵循合法、正当、必要原则,但开发生成式人工智能的企业往往留存大量公民个人信息,企业可能将所收集的数据非法共享给其他企业使用,进而产生信息不对称。[5] 严重损害用户的合法权益。

(三)权力行使的成本约束与效能危机

生成式人工智能作为高技术密集型应用,其稳定、持续且高效地服务于法治政府建设,离不开相应的硬件与软件支持。在硬件方面,用于法律分析、流程优化及文件起草等政务场景通常需配置多台高性能服务器,单台售价常在数万至数十万元不等。同时,政府需向专业服务商租用云服务及配套的专业软件费用高昂,导致地方财政压力较大。

除上述物质基础外,生成式人工智能作为新兴领域,兼具技术能力与政务理解的复合型人才极为稀缺,其引进与培养也产生大量成本。一方面,政府需对现有人员进行系统培训,涵盖人工智能基础、算法原理与数据安全等内容,随之产生课程开发、讲师聘请及时间安排等多项成本;另一方面,由于市场相关人才供不应求,政府在引进时往往面临激烈的待遇竞争。具备专业知识与实践经验的人才不仅要求具有竞争力的基础薪资,通常还期待人才补贴、住房保障及子女教育等附加福利,进一步推高了政府在人工智能应用中的人才投入成本。

(四)权力主体的多元化与责任认定危机

在生成式人工智能的应用过程中,法律责任主体的界定面临诸多困境。生成式人工智能系统是一个复杂的技术体系,涉及数据提供者、算法开发者、模型训练者及应用使用者等多个主体。当出现侵权或损害等法律问题时,很难知晓究竟是哪个环节出现故障,难以明确具体的责任承担者,进而影响公民权利救济。[6] 在行政决策、行政执法与公共服务中,若因系统错误造成不良后果,难以确定具体责任人。

当前,针对生成式人工智能的监管体系仍存在明显短板。一方面,现有《数据安全法》等法律法规多基于传统技术模式制定,难以有效应对该技术带来的新型法律与伦理挑战。此外,监管技术手段的发展滞后也制约了有效监督的实现。尤其在内容审核层面,现有监管方式难以实现全流程、实时化的覆盖。

三、国内外法治政府数字化治理的经验与启示

当今世界,数字时代法治政府的法律制度体系呈现中美欧互相竞争的势态。欧盟通过统一立法,确立了“风险分级”前置规制模式。美国则采取了“分散立法+行业自律”模式。中国可以充分借鉴欧美对于人工智能法律经验,结合自身国情,在地方实验基础上制定自己的数字法治政府法律制度体系。

(一) 欧盟的“风险分级”前置规制模式

欧盟《人工智能法案》于2024年3月正式通过,作为全球第一部专门规制人工智能活动的法案,为数字政府建设中的人工智能应用与规制提供了重要的立法借鉴,在权益保障与风险防控方面极具创新性与前瞻性。在数据隐私方面,法案明确要求企业与研究机构必须遵循数据保护法律,严格获取用户同意,并落实数据安全措施。针对算法偏见问题,法案规定开发主体须通过数据清洗、预处理等方式确保数据公正性,并对算法进行充分测试与评估,及时修正存在的偏见。

在安全性方面,《人工智能法案》确立了基于风险等级的分类监管框架,将人工智能系统划分为不可接受风险、高风险、有限风险与最低风险四个层级,并针对不同层级设定相应的合规要求。对于高风险应用,法案规定企业法人或其他责任主体必须满足严格的安全评估与认证标准;而对低风险应用则采取相对宽松的监管方式。此类分级治理策略既有效防范高风险系统可能引发的安全威胁,又为低风险领域的技术创新留有空间,体现出精准监管的立法智慧。

(二)美国的“分散立法+行业自律”模式

2025年1月,美国宣布成立“政府效率部”顾问委员会,旨在通过推动联邦政府技术与软件现代化,全面提升政府运行效率与生产力。同时,美国并未放松对人工智能领域的监管与规范。美国联邦政府对人工智能应用的法律约束,在隐私保护方面,《美国数据隐私和保护法》等法律对政府收集、使用和共享个人数据的行为作出规范,严禁侵犯公民隐私权;在数据使用方面,相关法规要求政府遵循最小必要原则,仅获取与公共服务目标直接相关的最少数据;在数据安全层面,法律还严格约束政府存储、传输及使用个人信息的活动,避免数据泄露与非法使用。

在算法审查方面,美国强调算法的可解释性、透明性,即要求公共部门公开其用于决策的人工智能算法的技术原理、数据来源及运行逻辑,以提升公众对自动化决策的信任。同时,美国首创在公共领域通过设置专门机构,并明确由机构人员组成问责主体,建立外部问责机制,并通过《关于算法透明性和可问责性的声明》《算法问责法》等一系列法案对问责机制加以完善以实现其效能。[7]

此外,美国还注重通过行业自律与第三方认证相结合的方式,规范公共部门对人工智能的应用。行业组织与专业团体积极制定相关标准,引导公共部门在人工智能使用中遵循道德与法律准则。这种行业自律与第三方认证并行的机制,有助于充分发挥专业组织的作用,促进公共部门的良性发展。

(三)国内人工智能领域的中央与地方立法

我国在人工智能相关立法领域进展显著,尤其在数据安全与算法治理等重要领域获得了较多立法成就。2021年生效的《数据安全法》和《个人信息保护法》对于人工智能领域的数据安全以及个人信息保护的规范具有基础性意义。在算法治理方面,2022年实施的《互联网信息服务算法推荐管理规定》进一步明确了算法推荐服务提供者与使用者的权利义务,要求其保障算法透明度与公平性,旨在维护用户合法权益与健康市场秩序。

我国在人工智能立法领域持续探索,逐步构建具有中国特色的人工智能立法体系框架。2023年7月,国家网信办等部门联合发布《生成式人工智能服务管理暂行办法》,作为目前推动该技术健康发展与规范应用的重要法规,对服务提供者与使用者的行为作出明确约束。《办法》要求提供者履行安全评估、算法备案与内容治理等责任,同时规范使用者需合法使用生成内容、禁止滥用。

一些地方立法机关也在人工智能领域积极开展立法探索。例如,上海市出台《上海市数据条例》、深圳市则制定了《深圳经济特区人工智能产业促进条例》,这些地方立法实践不仅为我国人工智能法律体系的构建积累了宝贵经验,也为全国性立法的进一步完善提供了重要的实践基础。

综合来看,欧盟针对人工智能时代的法治政府建设提出了整体性法律规制框架,美国则更倾向于依托传统隐私权保护与行业分类监管模式应对相关挑战。我国目前已初步构建了以《数据安全法》和《个人信息保护法》为基础的数字法律体系,但在人工智能领域的法律应对仍缺乏系统性规划,仅有地方性立法试验,亟待从国家与行业层面加快完善步伐。

四、构建数字时代的法治政府新形态的应对路径

立足于中国的地方法治实践经验,参考欧美相关的经验,我们可以考虑从强化数据治理监管体系、建立绩效评估调整机制、构建系统法律法规体系、实施穿透式审计监督四个方面构建中国的数字时代法治政府法律制度体系。

(一)强化数据治理与全链条技术监管

数据治理是规范生成式人工智能应用的前提,涉及数据质量、安全与合规应用。政府可以通过规范层级构造进行制度建设,在确立数据保护政策后,进一步细化数据收集场景识别、个人信息处理规则及信息主体权利等重点方面的规范,并借助其版本升级策略来实现规则文本和信息技术进展、司法经验相契合的演进逻辑,完成对数据处理的制度构架。此外,还可根据数据敏感度、重要性和数据使用目的实施分类分级管理。对涉及公民隐私、国家安全、国家关键基础设施等高敏感数据,必须严格限制访问权限,实施强加密保护,并全程记录与审计操作行为。对于普通商业信息数据、公开数据等,可定义为一般业务数据、较低级别的数据,可在保障其完整性与可用性的前提下采取较低程度的管理。通过进行数据分类分级管理,可实现保护资源的优化配置,提升数据管理的精准性与效率。

加强对生成式人工智能技术的安全审查也至关重要。首先,要详细制定对人工智能大模型的审查标准,不仅需要查看人工智能系统所使用的数据集,还需要查看算法中描述变量、相关性和结论的源代码与程序员的注释。[8] 其次,政府需组建专业的技术安全审查团队,在模型投入使用前,系统评估其算法设计、系统安全性、偏见控制、可解释性及数据处理的合法合规性。最后,应建立持续的运行监测机制,及时发现并处置潜在安全隐患。对于大模型的运行,行政部门和技术公司都要跟踪评估生成式人工智能工具的能力和可靠性并进行反馈,以防止对训练的模型注入偏见以及避免潜在的歧视性行为和歧视性风险。[9]

(二)建立基于绩效的评估与调整机制

生成式人工智能技术迭代迅速,其在数字时代法治政府建设中的应用场景与方式亦持续演进。定期对生成式人工智能的技术应用场景和结构进行敏捷性、适应性调整,能够确保其始终符合法治政府建设的目标和要求。[10] 具体而言,绩效评估应覆盖行政决策、执法与公共服务等核心领域。在行政决策层面,需评估数据支持的准确性、算法辅助决策的风险判断是否科学充分,以及是否有助于提升决策的科学性、民主性与合法性,是否有助于提供合理的工具和资源以确保符合被行政立法或者决策所目标瞄准的基本法治原则和依法行政目标。在行政执法层面,应考察智能监控预警的精准性与及时性、数据分析证据的可靠性,以及是否切实增强执法的精准化、智能化与公正性。在政务服务层面,则需关注算法优化流程的实际成效,以及智能客服、智能审批等新功能对公众便捷度与满意度的提升作用。

评估完成后,政府部门应以评估结果为导向,及时对生成式人工智能的应用进行优化调整。若智能算法效果不佳,需组织技术人员深入分析模型结构、参数设置等环节可能存在的偏差,并建立回溯机制,便于后续运行中的问题追溯与修正。对于监控预警系统出现的误报或漏报,则应重新审视技术组合与算法逻辑,结合历史数据对模型进行再训练,以提升识别准确率。若大数据分析、智能客服或智能审批未达预期,需全面梳理现有政务流程,重新评估技术应用策略,并推动流程再造与策略转型。

(三)加快构建系统化的法律法规体系

生成式人工智能的常态化应用对既有的法律规章制定提出极大挑战,及时更新和完善相关法律规章是我们面临的必答题。由于我国现有涉及生成式人工智能的规定散见于多部法律文件之中,缺乏系统性与针对性,难以适应其快速迭代的发展现实,所以亟须更新人工智能领域的法律规章,构建科学、全面且体系化的法律框架是当务之急。

在立法思路上,应坚持目标导向与问题导向相结合的原则。其一,应以促进生成式人工智能创新发展、助力数字时代法治政府建设为目标,制定包容创新、促进发展的法律政策,为其研发与应用提供制度保障与政策支持,营造有利于技术迭代与应用拓展的良好环境。其二,应聚焦数据隐私与安全、算法歧视与公平、责任认定等重点问题,制定针对性法律规范,厘定各相关主体的生成式人工智能应用责任。

在具体立法内容上,应涵盖多个关键方面。数据保护方面,应细化加强数据保护的具体措施,如完善隐私法规定,细化明确数据主体知情、选择等权利,加强数据收集、存储、使用、共享的监管;要求数据收集明确同意、范围合理,数据存储必须保证安全,数据共享坚持合法、正当、必要原则并纳入审批范畴,加大数据违法处罚力度。算法监管方面,建立算法审查与评估机制,要求开发者遵循公平、公正、公开原则,防范算法歧视。推行算法备案制度,引入第三方评估机构,加强对算法应用过程的监督与约束。责任认定方面,须明确数据提供者、算法开发者、政府部门等各方在生成式人工智能应用中的法律责任,建立责任溯及机制,确保能够准确溯及责任主体,保障责任追究有效公正。

此外,还应进一步加强法律法规的协调衔接。生成式人工智能应用跨领域、跨部门特征显著,相关立法应确保与《网络安全法》《数据安全法》《个人信息保护法》等现有法律体系衔接互补,避免规范冲突与监管漏洞,构建系统化、协同化的人工智能治理法律框架。同时,应强化部门间的沟通协作,明确各方在生成式人工智能监管中的职责分工,避免监管真空、重叠,提高监管效率。

(四)实施穿透式的审计监督

数字化时代,政府部门应以数字化思维创新监督机制,加强审计监督是保障生成式人工智能在数字时代法治政府建设中规范应用的重要举措。[11] 审计监督能够审查生成式人工智能系统的开发应用及管理过程,纠查其中存在的问题,督促其满足法律法规和政策要求,防止因成本过高造成政府资金使用效率低下,防范潜在风险。一方面,在系统开发过程中需审查所采用技术是否涉及知识产权侵权,并通过预算执行审计避免浪费与不合理支出,保障资金有效用于功能研发。同时,应对数据来源的合规性进行监督,从源头杜绝不安全、不可靠数据的使用,以防引入法律风险。

另一方面,在应用过程中,审计监督可确保生成式人工智能的输出结果符合政务处理规范。在管理环节,审计监督可以保证内部管理机制的有效性,避免滥用、违规运用生成式人工智能带来的风险。同时,审计监督还应关注生成式人工智能在整体法治政府建设体系中的整合状况,关注生成式人工智能能否与其他政务系统、数字平台实现整合,而非彼此抵触。

总之,面对蓬勃发展的数字浪潮,生成式人工智能在法治政府建设中展现出广阔前景,必将以更快速度、更深程度融入政府治理体系,为法治进程注入新活力。然而需清醒认识到,技术终究是工具而非目的。它在提升行政效率与治理能力的同时,亦存在情感理解缺失、信息误导与决策偏差等局限,机遇与挑战并存。因此,唯有坚持以人为尺度的服务升级,方能真正定义数字政府的未来。

参考文献

[1] 《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》,人民出版社2025年版,第13页。

[2] 张洪雷:《生成式人工智能参与数字政府建设的技术跃迁、目标导向与可行路径》,《南昌大学学报(人文社会科学版)》2023年第4期。

[3] R.Brauneis & EP Goodman, Algorithmic Transparency for the Smart City, Social Science Electronic Publishing, 2017, p. 6.

[4] 丁道勤:《生成式人工智能训练阶段的数据法律问题及其立法建议》,《行政法学研究》2024年第6期。

[5] 尹华容、王惠民:《数据权力的兴起、异化及规制》,《湖南大学学报》2022年第3期。

[6] 刘绍宇:《论数字政府中人工智能的法律地位与规范体系》,《行政法学研究》2025年第1期。

[7] 范玉吉、李宇昕:《从权力到权利:算法治理的路径》,《西南政法大学学报》2022年第1期。

[8] Danielle Keats Citron & Frank Pasquale, "The Scored Society: Due Process for Automated Predictions", Wash.L.Rev., 2014(89): 25.

[9] 陈全真:《生成式人工智能与平台权力的再中心化》,《东方法学》2023年第3期。

[10] 白文静:《人工智能参与数字政府建设的范式革新》,《西北民族大学学报(哲学社会科学版)》2024年第3期。

[11] 崔春、杨周南:《数字化时代国家审计治理能力提升:理论框架、逻辑构建和实现路径》,《经济体制改革》2024年第3期。

(作者为中共中央党校[国家行政学院]政治和法律教研部教授)

    进入专题: 数字时代   法治政府   生成式人工智能  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 政治学 > 公共政策与治理
本文链接:https://www.aisixiang.com/data/174283.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统