陈滨琪:人工智能标准化和大国竞争

选择字号:   本文共阅读 4778 次 更新时间:2025-05-25 19:30

进入专题: 人工智能   大国竞争  

陈滨琪  

 

摘要:总体而言,当前AI标准化呈现大国主导的区域化、碎片化特征,欧盟凭借刚性立法试图主导全球规则制定,中国通过行政手段加速标准落地,美国则依托市场力量推动技术标准扩散。三方在治理逻辑上的差异体现在——欧盟侧重风险预防、中国强调安全发展平衡、美国注重创新激励。三方的核心分歧既存在于技术创新导向与风险管控力度的权衡,更根植于制度传统与发展阶段的结构性差异,这种竞争可能导致全球人工智能生态格局的阵营分化。技术标准化进程中,全球通用性诉求与国家安全性考量始终存在难以完全调和的矛盾。短期内,在大国科技竞争的推动下,AI标准化的天平将倾向国家安全,或将加深全球人工智能生态格局的分化。

 

一、人工智能标准化:中美欧对比

(一)欧盟:法律强制约束下的AI标准化

欧盟《人工智能法案》(以下简称"法案")于2024年8月1日正式生效。法案针对AI的标准化要求主要针对"高风险AI系统"和"通用人工智能系统"(GPAI)两大类别,并设定了分阶段实施的过渡期:高风险AI系统需在24至36个月内完成合规改造,GPAI系统则享有12个月的合规过渡期。法案的核心目标是通过明确技术标准与合规要求,确保人工智能系统的安全性并强化个人权益保护。

针对高风险AI系统的开发和管理,法案提出系统性标准化要求:首先,提供商须建立覆盖全生命周期的风险管理体系,涵盖从系统设计、开发到部署各阶段的风险识别与缓释措施。其次,在数据治理层面,必须确保训练集、验证集和测试集具备相关性、代表性和完整性,防范因数据偏差引发的系统性风险。技术文档管理作为合规审查重点,要求完整记录系统架构、功能逻辑及合规性证明文件。此外,系统须配备自动日志记录功能,完整追踪重大修改记录和风险事件轨迹,确保运行过程可追溯。在技术实现层面,高风险AI系统必须内置人工监督接口,使操作者能在关键决策节点实施干预。同时要求系统达到必要的准确性标准、运行稳定性及网络安全防护等级,有效防范误操作和恶意攻击。为保障合规持续性,法案还强制要求建立质量管理体系,通过标准化流程确保各环节符合监管要求。2024年11月13日,欧洲议会特别成立法案实施工作组,专职协调成员国执法工作并监督高风险系统的合规进程。

对于通用人工智能系统(GPAI),法案设置了更复杂的监管框架:所有GPAI模型提供商必须提交完整技术文档和使用指南,遵守《欧盟数字版权指令》规定,并公开训练数据摘要。采用开源许可的GPAI模型虽可免除部分义务,但若存在如训练算力超过10^25FLOPS的系统性风险,仍需履行模型评估、对抗性测试、重大事件追踪报告等义务,并加强网络安全防护措施。

2024年11月14日,欧盟委员会发布《通用人工智能业务守则》草案,确立分级监管原则:依据模型复杂度和风险等级实施差异化监管,强制企业建立技术文档管理制度、版权合规机制和系统性风险评估体系,重点防范网络攻击、生化核威胁及大规模歧视等风险。草案同时细化透明度规则,要求披露训练数据来源、能源消耗信息及版权管理方案,并为中小企业设置简化合规通道。同年12月19日发布的第二版守则新增三项关键条款:(1)强化开源模型责任认定,要求开放权重模型的开发者承担与闭源系统同等的风险评估义务;(2)明确人工智能办公室(AIOffice)对系统性风险模型的直接监管权限,包括强制提交安全框架报告和接受独立专家评估;(3)建立"重大事件"即时报告机制,要求提供商在24小时内上报涉及人身安全或基本权利侵害的AI事故。

2024年12月8日生效的新版《欧盟产品责任指令》呈现三大创新:(1)将软件自主更新和AI系统自我演进导致的缺陷纳入责任范围,即使制造商未主动修改代码仍需担责;(2)扩展"制造商"法律定义,涵盖云计算服务商和算法供应商;(3)实行举证责任倒置原则,要求企业自证技术因果链与损害无关联。该指令与《人工智能法案》形成制度互补,共同构建"风险预防+损害追责"的双层法律体系。

值得关注的是,2025年欧盟人工智能政策出现显著调整。原定作为核心配套立法的《人工智能责任指令》提案被撤回,主要源于法德等国对过度监管可能抑制创新的担忧,这些国家认为严苛的责任规则将削弱欧盟相对美国监管宽松政策的竞争力。同期,欧盟宣布精简重复性监管规则,计划投入2000亿欧元建设人工智能超级计算中心,并简化高风险AI系统合规流程,这一系列举措反映出欧盟在安全监管与技术发展间寻求平衡的政策转向。

(二)中国:行政政策指导下的产业技术标准

2024年2月29日,全国网络安全标准化技术委员会正式发布《生成式人工智能服务安全基本要求》(TC260-003),这是我国首个系统规范生成式人工智能服务安全的技术标准指导文件,全面覆盖技术研发、服务提供与监管评估全流程。

该标准从三大核心维度构建安全体系:第一维度聚焦语料安全,明确要求服务提供者确保训练数据来源合法合规、内容风险可控,并建立标注人员培训考核机制;第二维度强化模型安全,通过基础模型备案制度、输入输出实时监测机制,结合指令微调技术规范模型行为,重点保障生成内容的可控性;第三维度细化安全措施,要求服务提供者公开模型局限性说明、算法概要及数据使用规范,并建立动态适配网络安全态势的场景化安全方案。标准同步建立量化评估体系,采用人工核验与技术检测相结合的方式验证合规性。

2024年6月,工业和信息化部联合三部门印发《国家人工智能产业综合标准化体系建设指南(2024版)》,明确提出"到2026年完成50项以上国家/行业标准制定,推动超1000家企业贯标实施,主导参与20项以上国际标准"的发展目标。该指南重点布局大模型安全、算力框架、伦理规范等关键领域,着力解决人工智能技术快速迭代引发的标准碎片化问题。

2024年9月,全国网络安全标准化技术委员会发布《人工智能安全治理框架》(TC260),系统应对人工智能内生安全与应用风险。该框架包含四大治理模块:模型算法层面,要求研发者遵循安全开发规范,重点保障算法的可解释性、公平性与运行可靠性;数据安全层面,建立涵盖数据采集、存储、传输及跨境流动的全生命周期管理标准;系统安全层面,着重规范算力设施安全运维、供应链韧性保障及漏洞动态修复机制;综合治理层面,实施分类分级动态管理,建立高风险领域安全阈值管控机制,依托数字证书与内容标识构建服务追溯体系。框架同时倡导通过多边合作机制与开放平台建设,提升发展中国家在国际标准制定中的参与度。

2025年1月,工业和信息化部正式组建人工智能标准化技术委员会(MIIT/TC1),其标准体系涵盖五大方向:基础通用标准涉及术语定义、评估测试等基础规范;基础支撑标准规范数据集、硬件设备等技术要素;算法模型标准建立大模型技术体系;运维管理标准制定应用开发指南;安全治理标准构建包含风险防范、数据安全等要素的立体化防护体系。

2025年2月,中国信息通信研究院主导的三项大模型国际标准在ITU成功立项,涉及边缘侧推理系统架构、训练集群构建规范及算力框架技术要求,首次建立起分布式算力协同领域的国际标准框架。

(三)美国:公私协作,构建行业主导的弹性化AI标准体系

2023年1月,美国商务部国家标准与技术研究院(NIST)率先发布《人工智能风险管理框架》(AIRMF),构建了覆盖AI算法全生命周期的可验证标准体系。基于此框架,管理与预算办公室(OMB)于2024年3月推出联邦机构AI治理政策,要求设立首席人工智能官(CAIO)岗位,并建立包含AI影响评估、真实环境测试、统一代码开源及数据资产管理等要求的实施规范。NIST同期主导的AI风险与影响评估项目(ARIA)创新性整合对抗性测试方法,开发出包含117项指标的标准化检验框架。2024年7月,NIST发布《生成式AI安全开发系列指南》,首次将安全软件开发框架(SSDF)扩展至大模型领域,明确数据溯源验证、模型权重加密、供应链攻击防护等技术规范。

在AIRMF制定过程中,美国政府通过建立公私合作机制,引导谷歌、微软等科技巨头将开源工具开发与标准实施相结合,形成配套技术方案。NIST通过共识驱动的开放流程整合多方资源,细化技术标准要求。国家AI研究院计划联合联邦机构、高校及微软、IBM等企业,聚焦可信AI系统的可解释性、安全性与偏见缓解研究,为框架提供技术验证场景。国务院发起的"全球AI包容性伙伴关系"将标准推广与地缘战略深度融合,通过亚马逊、谷歌等企业提供的开源工具包(如HuggingFace模型库、AzureAI伦理评估接口),向拉美、非洲等地区资助开发低偏见AI应用,形成"标准-工具-应用"传导链。尽管这些开源技术源自企业自主战略,但客观上已成为标准落地的技术载体——谷歌TensorFlow的公平性指标模块(FairnessIndicators)与NISTAIRMF偏见评估条款(3.1.2项)形成映射,微软ResponsibleAIDashboard通过可视化模型决策路径满足透明性要求(2.3.1项)。通过"安全AI联盟"(覆盖美国90%算力供应商)等合作机制,企业被引导将标准要素嵌入工具设计,例如TensorFlow模型库预设NIST风险评估模板,实现"标准即代码"。这种政府定义治理基线、企业提供技术实现、学术界验证迭代的三方协作模式,通过NISTAIRMF社区会议等技术研讨平台形成闭环,构建起柔性非强制的标准实施网络。

在国际协调层面,美国采取多轨并进策略:在G7框架下达成的《国际AI行为准则》吸纳美国国家标准核心要素,确立风险评估、算法透明、持续监测等共同原则;通过联合国平台推动的AI全球治理决议,将NIST框架技术要素转化为国际共识。这种"国内标准-区域协议-国际规范"的渐进渗透策略,旨在使美国技术标准成为全球治理工具。

2025年1月20日特朗普就任美国第47任总统后,首日即签署行政令废止拜登政府近80项政策,包括2023年《关于安全、可靠、值得信赖地开发和使用人工智能的行政命令》。此前于1月13日出台的《人工智能扩散暂行最终规则》因强化GPU出口管制已遭英伟达等企业强烈反对。特朗普政府认定这些政策过度干预技术创新,释放出显著放松AI监管的政策信号。

新行政令不仅废止算法偏见测试等监管要求,更首次从法律层面界定了"人工智能"概念,要求180天内制定确保美国AI全球领导地位的行动计划。商务部等机构需全面审查修订冲突文件,管理与预算办公室须调整相关备忘录适配新规。人事布局方面,具有硅谷背景的大卫·萨克斯、雅各布·赫尔伯格等产业界人士出任政府要职。

根据白宫关于特朗普AI领导力行动的情况说明,研判特朗普政府AI标准化政策可能呈现三大特征:政策首先弱化政府强制性标准,撤销拜登时期的安全测试与报告义务,认为其"设立过于繁重要求,可能扼杀私营部门创新";其次强化行业主导标准,转向自监管模式,法律界分析显示AI开发商将面临"更少联邦监管监督",行业联盟制定的自愿性标准将确保技术兼容性;最后聚焦创新促进,标准化将侧重支持经济增长与全球竞争力,如行政令要求的AI行动计划预计提出支持创新的政策建议,相关公众征询可能涉及偏见缓解、国家安全等领域。

尽管整体放松监管,特朗普政府仍将保留涉及国家安全的关键领域标准化工作,特别是在对华竞争维度。行政部门可能简化国防安全AI系统标准制定流程,如行政令要求修订或撤销与新政策冲突的文件,但重点防范来自中国的技术竞争。

(四)中美欧AI标准化的异同点

中美欧在人工智能标准化领域的显著差异集中体现在主导主体和法律效力层面。欧盟通过《人工智能法案》构建了全球唯一具备法律约束力的AI标准化体系,例如对高风险AI提出具体的标准化要求,专门成立法案实施工作组机构监管执行,违规企业最高面临全球年营业额6%的罚款。中国AI标准化体系则以政府主导的行政指导为主,尚未形成法律层面的强制约束力。随着2024年6月《数据安全风险评估实施规则》的正式施行,中国AI标准化正从行政管控向制度治理转型,但整体框架仍以指导性文件为主导。尽管《生成式AI服务管理暂行办法》开创了生成式AI专项监管先河,但其法律位阶低于欧盟立法,执行层面更依赖行政指导而非司法强制。美国AI标准化体系当前主要依托NIST自愿性框架和行业自律,形成私营部门主导的公私协作模式。

与此同时,三方在算法透明性、数据标准、风险管理框架方面的标准化要求趋同。算法透明性已成为三方AI标准化体系的基石:欧盟要求高风险AI系统披露决策逻辑,中国《生成式AI服务管理办法》明确算法机理说明义务,美国NIST框架则将可解释性列为核心要素。数据标准方面,三方均在探索隐私保护与数据流动的平衡机制——欧盟通过GDPR与AI法案构建双重合规体系,中国推行数据分类分级管理制度,美国虽无联邦立法但加州CCPA等州法已形成事实标准。这些趋同的标准化要求正在重构全球AI产业的技术路线,倒逼跨国企业建立统一的技术合规架构。

总结来说,欧盟凭借刚性立法试图主导全球规则制定,中国通过行政手段加速标准落地,美国则依托市场力量推动技术标准扩散。三方在治理逻辑上的本质差异——欧盟侧重风险预防、中国强调安全发展平衡、美国注重创新激励——导致全球AI标准化进程呈现多元竞争格局,带来全球AI标准化体系的碎片化风险。

全球治理层面,国际人工智能标准峰会拟于2025年12月2-3日在首尔举行,由国际电工委员会(IEC)、国际标准化组织(ISO)及国际电信联盟(ITU)共同发起,韩国技术标准局(KATS)承办。三大组织将发挥专业优势:ISO侧重系统治理框架构建,IEC专注技术互操作性标准,ITU着力开发全球AI标准数据库。ISO秘书长塞尔吉奥·穆希卡强调国际标准对负责任AI发展的基石作用;IEC秘书长菲利普·梅茨格指出三方专业互补可为治理决策提供关键支撑;ITU标准局局长濑户清三透露,正在联合开发的AI标准数据库将赋能全球治理体系。

二、AI标准化和大国博弈

首先,中美欧三方AI标准化体系的差异,体现在技术创新导向与风险管控力度的权衡,根源于其不同的制度传统与发展阶段的结构性差异。全球AI竞赛中,欧盟的AI发展落后于中美,深度依赖美国AI生态系统,试图通过全面系统的监管体系抢占AI规则话语权,通过具有法律强制力的《人工智能法案》构建了以高风险AI系统管理为核心的标准化框架,特别强调技术系统的透明性、可追溯性以及个人数据保护等刚性要求,试图从美国科技巨头手中取得部分的自主权和话语权。相比之下,中国的AI发展在美国的围追堵截下强调自主创新,政府通过大基金等方式积极推动AI行业“不被卡脖子”“独立自主”,在此背景下,AI标准化体系呈现出政府主导的独特路径,在产业促进与安全治理间保持动态平衡,其标准制定更多依托行政指导而非立法强制,实施过程强调与快速演进的技术应用保持同步适配。最后,美国科技巨头引领全球AI技术的突破性发展,因此美国的AI标准化体系采取市场导向的标准化模式,通过公私协作机制引导企业主导标准形成,依托NIST等机构推动算法可解释性、偏见缓解等技术要求的柔性落地,这种行业自愿模式在保持监管弹性的同时,也面临标准执行碎片化的潜在风险。

其次,人工智能标准化的大国竞争可能导致全球人工智能生态格局的系统性分化。在全球化竞争格局中,差异化标准体系实质构成技术市场的准入壁垒。欧盟正通过"布鲁塞尔效应"将其高标准转化为全球性合规成本,要求跨国企业重构技术架构;中国借助"新基建"“一带一路”国际合作推动自主标准输出,在数字丝绸之路沿线培育技术生态;美国则利用其技术霸权地位,通过芯片出口管制和闭源大模型确立AI霸权体系,通过开源社区和云服务渗透推广事实性标准。这种标准博弈的动态发展将对全球人工智能生态格局造成深远影响。目前来看,这种战略差异已经塑造了差异化的市场准入环境。欧盟GDPR框架下的合规要求已迫使多家科技巨头调整数据治理架构,中国的数据本地化标准重构了云计算市场竞争格局,美国的出口管制清单则重塑着半导体产业链分布。更具深远影响的是,标准差异正在催生技术生态的"平行体系"——欧盟CE认证、中国GB标准群、美国FIPS认证系统分别牵引着不同区域的技术演进路径,这种分化可能导致全球人工智能生态格局的阵营分化。

最后,当前国际标准化组织推进的协调机制面临现实困境:虽然ISO/IEC联合工作组在术语体系、测试基准等基础领域取得阶段性成果,但在算法审计规则、数据跨境流动等关键议题上仍难以突破主权边界。这种困境本质上反映着技术标准化进程中,全球通用性诉求与国家安全性考量始终存在难以完全调和的矛盾。

三、结语

总体而言,当前AI标准化呈现大国主导的区域化、碎片化特征,欧盟凭借刚性立法试图主导全球规则制定,中国通过行政手段加速标准落地,美国则依托市场力量推动技术标准扩散。三方在治理逻辑上的差异体现在——欧盟侧重风险预防、中国强调安全发展平衡、美国注重创新激励。三方的核心分歧既存在于技术创新导向与风险管控力度的权衡,更根植于制度传统与发展阶段的结构性差异,这种竞争可能导致全球人工智能生态格局的阵营分化。技术标准化进程中,全球通用性诉求与国家安全性考量始终存在难以完全调和的矛盾。短期内,在大国科技竞争的推动下,AI标准化的天平将倾向国家安全,或将加深全球人工智能生态格局的分化。

参考资料

Department for Science, Innovation and Technology. (2024b, February 6). UK signals step change for regulators to strengthen AI leadership. GOV.UK. https://www.gov.uk/government/news/uk-signals-step-change-for-regulators-to-strengthen-ai-leadership

Artificial Intelligence Act: MEPs adopt landmark law | News | European Parliament. (n.d.). https://www.europarl.europa.eu/news/en/press-room/20240308IPR19015/artificial-intelligence-act-meps-adopt-landmark-law

Council of the EU. (2024). Artificial intelligence (AI) act: Council gives final green light to the first worldwide rules on AI. Consilium. https://www.consilium.europa.eu/en/press/press-releases/2024/05/21/artificial-intelligence-ai-act-council-gives-final-green-light-to-the-first-worldwide-rules-on-ai/

Press corner. (n.d.). European Commission - European Commission. https://ec.europa.eu/commission/presscorner/detail/en/ip_24_2982

?First EDPS Orientations for EUIs using Generative AI | European Data Protection Supervisor. (2024, September 3). Www.edps.europa.eu. https://www.edps.europa.eu/data-protection/our-work/publications/guidelines/2024-06-03-first-edps-orientations-euis-using-generative-ai_en

Directorate-General for Communication. (2024, August 1). AI Act enters into force - European Commission. European Commission. https://commission.europa.eu/news/ai-act-enters-force-2024-08-01_en

The Framework Convention on Artificial Intelligence - Artificial Intelligence - www.coe.int. (n.d.). Artificial Intelligence. https://www.coe.int/en/web/artificial-intelligence/the-framework-convention-on-artificial-intelligence

Artificial Intelligence Board kicks off work on uptake of AI in the EU and implementation of the AI Act. (2024). Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/en/news/artificial-intelligence-board-kicks-work-uptake-ai-eu-and-implementation-ai-act

Working Group on the implementation and enforcement of the AI Act | Subject files | Home | IMCO | Committees | European Parliament. (2025). Europa.eu. https://www.europarl.europa.eu/committees/en/working-group-on-the-implementation-and-/product-details/20241113CDT13823

First Draft of the General-Purpose AI Code of Practice published, written by independent experts. (2024, November 14). Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/en/library/first-draft-general-purpose-ai-code-practice-published-written-independent-experts

Second Draft of the General-Purpose AI Code of Practice published, written by independent experts. (2024, December 19). Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/en/library/second-draft-general-purpose-ai-code-practice-published-written-independent-experts

Technical Documentation of National Technical Committee 260 on Cybersecurity of Standardization Administration of China: Basic Safety Requirements for Generative Artificial Intelligence Services | Center for Security and Emerging Technology. (2024, December 3). Center for Security and Emerging Technology. https://cset.georgetown.edu/publication/china-safety-requirements-for-generative-ai-final/

张兴华. (n.d.). 四部门关于印发国家人工智能产业综合标准化体系建设指南(2024版)的通知_国务院部门文件_中国政府网. Www.gov.cn. https://www.gov.cn/zhengce/zhengceku/202407/content_6960720.htm

工信部成立人工智能标准化技术委员会_通信世界网. (2024). Cww.net.cn. http://www.cww.net.cn/article?id=596284

Utah Enacts First AI Law – A Potential Blueprint for Other States, Significant Impact on Health Care. (n.d.). Manatt. https://www.manatt.com/insights/newsletters/health-highlights/utah-enacts-first-ai-law-a-potential-blueprint-f

Young, S. (2024). Executive Office Of The President Office Of Management And Budget Memorandum For The Heads Of Executive Departments And Agencies from. https://www.whitehouse.gov/wp-content/uploads/2024/03/M-24-10-Advancing-Governance-Innovation-and-Risk-Management-for-Agency-Use-of-Artificial-Intelligence.pdf

Rodriguez, R. (2024, May 17). Consumer Protections for Artificial Intelligence. Colorado General Assembly. https://leg.colorado.gov/bills/sb24-205

NIST Launches ARIA, a New Program to Advance Sociotechnical Testing and Evaluation for AI. (2024). NIST. https://www.nist.gov/news-events/news/2024/05/nist-launches-aria-new-program-advance-sociotechnical-testing-and

NIST. (2024). Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile. https://doi.org/10.6028/nist.ai.600-1

Illinois General Assembly - Bill Status for HB3773. (2024). Ilga.gov. https://www.ilga.gov/legislation/BillStatus.asp?DocNum=3773&GAID=17&DocTypeID=HB&SessionID=112&GA=103

Framework To Advance Ai Governance And Risk Management In National Security. (n.d.). https://ai.gov/wp-content/uploads/2024/10/NSM-Framework-to-Advance-AI-Governance-and-Risk-Management-in-National-Security.pdf

ISO、IEC、ITU宣布联合举办国际人工智能标准峰会-国家数字标准馆. (2025). Ndls.org.cn. https://www.ndls.org.cn/news/news-info/1882708518541615105

IEC、ISO和ITU共同发起2025年国际人工智能标准峰会-国家数字标准馆. (2025). Ndls.org.cn. https://www.ndls.org.cn/news/news-info/1846366668650360833

2025年国际人工智能标准峰会将于12月初召开. (2025). Cnas.org.cn. https://www.cnas.org.cn/zxzx/gjrkdt/art/2025/art_b2a04a30e19a463aa41ec67112faf8f4.html

The White House. (2025, January 23). Removing Barriers to American Leadership in Artificial Intelligence – The White House. The White House. https://www.whitehouse.gov/presidential-actions/2025/01/removing-barriers-to-american-leadership-in-artificial-intelligence/

美国白宫发布人工智能国家安全备忘录----中国科学院科技战略咨询研究院. (2024). Casisd.cas.cn. https://casisd.cas.cn/zkcg/ydkb/kjzcyzxkb/2024/zczxkb202412/202501/t20250116_7519124.html

The White House. (2025, January 23). Fact Sheet: President Donald J. Trump Takes Action to Enhance America’s AI Leadership – The White House. The White House. https://www.whitehouse.gov/fact-sheets/2025/01/fact-sheet-president-donald-j-trump-takes-action-to-enhance-americas-ai-leadership/

President’s Council of Advisors on Science and Technology – The White House. (2025, January 23). The White House. https://www.whitehouse.gov/presidential-actions/2025/01/presidents-council-of-advisors-on-science-and-technology/

Dumas, B. (2025, January 21). Trump announces largest AI infrastructure project “in history” involving Softbank, OpenAI and Oracle. Fox Business. https://www.foxbusiness.com/politics/trump-announces-major-ai-infrastructure-investment

    进入专题: 人工智能   大国竞争  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 国际关系 > 国际政治经济学
本文链接:https://www.aisixiang.com/data/163036.html
文章来源:本文转自《人工智能资讯周报》,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。

评论(0)

Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统