危红波:人工智能技术产品进口安全监管的国际比较及启示

选择字号:   本文共阅读 70 次 更新时间:2026-01-25 23:34

进入专题: 安全监管  

危红波  

 

随着人工智能技术的迅猛发展,人工智能产品已深度融入关键领域,同时其潜在风险也远超传统商品。习近平总书记指出,“要把握人工智能发展趋势和规律,加紧制定完善相关法律法规、政策制度、应用规范、伦理准则,构建技术监测、风险预警、应急响应体系,确保人工智能安全、可靠、可控”。党的二十届三中全会明确提出“建立人工智能安全监管制度”“完善生成式人工智能发展和管理机制”。党的二十届四中全会通过的《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》进一步强调“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则”“加强网络、数据、人工智能、生物、生态、核、太空、深海、极地、低空等新兴领域国家安全能力建设”。

当前,由于技术贸易和数字经济的全球化,各国从他国进口人工智能技术及其载体—智能产品和服务已成常态。对进口的人工智能技术产品进行安全监管并非设置贸易壁垒,而是出于对国家主权、社会稳定和公民权益的深度关切,是加强重点领域国家安全能力建设的切实举措。目前世界各国都高度重视人工智能技术产品的进口安全监管问题,虽然在相关立法、监管政策和具体措施上存在差异,但国际社会对其战略意义已形成基本共识。

一、监管理念:从“工具安全”到“系统安全”的认知转变

对进口人工智能技术及其产品和服务进行安全监管,本质上是一次认知的升级:我们监管的不再是一个简单的“工具”,而是一个可能自主决策、持续演化并深度嵌入社会运行的“系统”。其监管的必要性超越了传统的商品检验,已成为公民权利的“守护者”、国家安全的“防火墙”、经济竞争的“平衡器”、国家主权的“延伸”。

保护公民基本权利与伦理边界。人工智能的许多风险是隐性的,直接关系每个人的基本权利。进口人工智能产品(如在招聘、信贷、司法等领域)的训练数据可能包含其原产国的社会偏见,导致在本国应用时对特定性别、种族或群体产生系统性歧视,破坏社会公平。人工智能产品通常是数据“黑洞”,会大量收集和处理个人乃至国家数据。若无监管,公民的隐私数据可能被源源不断地传输至境外,面临泄露和滥用的风险。深度伪造技术可能被用于制造虚假信息、实施诈骗,操纵人性的推荐算法可能加剧社会撕裂,必须对这类产品进行伦理评估和使用限制。

维护国家军事安全与社会安全。智能武器、战场自主决策系统等进口人工智能技术,可能包含对其来源国有利的偏见,或在关键时刻被远程禁用,直接威胁军事和国防安全。如果进口的人工智能系统被用于电网、金融、交通等核心和关键基础设施,其内置的后门、漏洞或恶意代码可能在特定情况下被远程激活,导致系统瘫痪或失控,造成灾难性后果。某些人工智能产品(如智能监控摄像头、人群分析系统)可能被用于实施不符合本国法律和价值观的大规模监控与社会管理,侵蚀社会信任。

保障国家经济安全与技术主权。人工智能是未来经济发展的核心引擎,必须确保其安全可控。过度依赖外国人工智能技术(如基础模型、核心框架)会使本国经济命脉受制于人。一旦供应中断或被“断供”,整个产业链将面临巨大风险。缺乏监管可能导致利用数据垄断和不公平算法优势的外国人工智能产品摧毁本国初创企业,抑制本土创新活力。实施监管是为确保国家在关键人工智能技术上有自主可控的能力和决策权,避免在战略层面被“技术锁定”。

履行国家治理责任与填补法律真空。监管是国家主权的体现,也是填补法律空白的必然要求。人工智能的决策过程复杂,其危害一旦发生,往往是广泛且难以逆转的。监管的核心在于事前预防,通过准入审查、标准设定等方式将风险挡在国门之外。传统法律难以规范人工智能带来的新型风险,主动建立监管体系,是为数字时代的社会治理设立新的规则,是国家治理现代化的体现。目前全球主要经济体(如欧盟、美国)都已建立或正在加速建立自己的人工智能监管壁垒。中国作为负责任的大国,必须构建与之对等的监管体系,以保护自身利益,并在全球规则制定中提升话语权。

二、监管实践:法律、政策与市场等维度的国际比较

当前美国、欧盟、英国、日本、加拿大等全球主要经济体已分别从国家安全、数据治理、风险评估、合规认证、政府采购和黑名单制度等方面,对人工智能技术产品的进口建立了多层次的管控措施。

建立国家安全审查机制。部分国家以维护“国家安全”名义直接禁止高风险产品进口使用,重点面向中国等“战略竞争对手”,审查范围涵盖人工智能芯片、软件、平台等。例如美国通过的《2019财年国防授权法案》第889条禁止政府部门采购或使用特定的中国通信和监控设备,这实际上构成了对相关人工智能技术(如安防人工智能摄像头、人脸识别系统等)的进口禁令;2020年6月,美国联邦通信委员会(Federal Communications Commission,简称FCC)正式将中国通信巨头华为和中兴通讯列入威胁国家安全名单,禁止美国电信运营商利用83亿美元的通用服务基金(Universal Service Fund,简称USF)政府补贴资金向这两家公司购买网络设备。2021年11月,美国总统拜登签署《2021安全设备法》,防止华为、中兴等被其视为“安全威胁”的公司从美国监管机构获得新的设备许可证。加拿大与美国保持一致,也于2022年5月以“国家安全”为由,禁止华为和中兴参与加拿大的5G网络建设。

严格限制数据跨境和本地化存储。外国人工智能产品若需从欧盟获取个人数据,必须满足欧盟《通用数据保护条例》的数据跨境传输合规要求,否则可能被监管机构禁止使用;2023年通过的欧盟《数据法案》对第三国的访问限制,也为进口人工智能服务的云托管和跨境数据处理设定了安全门槛。英、美无统一规定但通过安全审查和部门规制控制重要数据外流,英国政府于2023年3月下令禁止政府工作人员在公务手机上使用中国应用程序TikTok,美国政府多次尝试禁止或限制TikTok在美运营,要求其与中国母公司剥离,体现了对外国人工智能应用跨境数据流动的担忧。国外人工智能厂商在加拿大提供云服务时,为赢得政府或特定行业客户,往往需要承诺本地部署数据中心或满足加方的数据主权要求。在云服务采购中,日本政府更倾向选用国内或信任度高的国家运营商,以免数据受外国法律管辖。

建立风险评估和监管体系。欧盟在《人工智能法案》(Artificial Intelligence Act)中首创了分级监管框架,这种将人工智能系统按风险高低分为四类的全面分级体系为进口人工智能设立了明晰的合规标准:在功能上属于高风险类别的任何外国人工智能系统,必须提前完成相应评估认证,否则无法在欧盟合法销售。英国政府于2023年3月发布《支持创新的人工智能监管方式》(A pro-innovation approach to AI regulation)政策文件,选择原则指导、不设统一等级,外国人工智能产品进入英国市场,需根据其应用领域遵循相应监管机构的规定。2023年10月,美国白宫发布《关于安全、可靠和可信地开发和使用人工智能的行政命令》(Executive Order on Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence),要求开发者在训练具有重大安全风险的模型(如国防、关键基础设施等)前向联邦政府报告相关信息,并在部署前根据《国防生产法》接受安全评估,提交安全测试(包括“红队”测试)结果。进口的人工智能服务若要在美国关键行业部署,需要通过美国国家标准与技术研究院(National Institute of Standards and Technology,简称NIST)标准的测试,证明其符合安全、可靠和公正性要求。国外人工智能供应商进入美国市场,需要关注不同联邦机构和地方性法规对各自业务的要求,而非一个统一门槛。日本、加拿大侧重软法和内部评估,总体趋势是对高风险应用列出专门要求,对低风险应用鼓励创新。他国人工智能产品进入日本时,一般根据所属行业执行已有法律,并参考日本的软法指南(如2023年8月,日本政府宣布制定《人工智能指导方针》),确保符合“安全、可靠、可解释”等原则。加拿大正在推进《人工智能和数据法案》(Artificial Intelligence and Data Act,简称AIDA)的立法,旨在建立“高影响”的人工智能系统的监管框架,若立法通过,对进口人工智能产品也会一视同仁要求达标。

第三方合规认证与采用国际标准。欧盟要求高风险人工智能需经独立第三方机构(公告机构)审核认证后,方可贴附安全认证(Conformité Européenne,简称CE)标志上市。美国目前没有针对人工智能产品的一般强制认证制度,但在某些行业已有成熟认证体系可以涵盖人工智能,对于进口人工智能产品,美国虽然没有一律要求第三方认证,但若其应用涉及关键领域(如航空人工智能系统),需取得专业认证方许可才能使用。英国尚无强制认证但推崇采用国际标准,对于进口人工智能服务,如云人工智能平台,会要求其遵守英国的数据保护、内容监管规定,否则可能被英国通信管理局(Office of Communications,简称Ofcom)或数据监管机构采取措施。日本以行业许可/标准评测保障质量,外国人工智能产品进入日本市场时,如能出具国际认证(如ISO27701隐私信息管理体系认证、ISO24029人工智能可靠性测试等)的证明,将有助于取得客户和监管机构的信任。加拿大AIDA法案草案建议监管机构有权要求“高影响”的人工智能提供合规证明,甚至可以指定独立审计,若该法通过,未来可能要求“高影响”的人工智能注册及合规报告。

对政府和企业采购进行安全管控。部分国家通过法律直接禁用特定外国产品。例如美国总务管理局(U.S. General Services Administration,简称GSA)根据《2019财年国防授权法案》(NDAA)第889条禁止使用美联邦政府资金采购华为、中兴、海康威视、大华和海能达5家中国公司电信设备。英国2021年推出《电信(安全)法案》(Telecommunications 〈Security〉 Bill),授权政府指定电信网络的高风险供应商并限制其设备使用,严禁英国电信企业继续采购华为生产的5G设备,已经安装运营的也必须在2027年之前全部拆除,对违令使用华为设备的英国电信公司施以严惩,比如每天罚款10万英镑或者没收10%的营业额。还有部分国家通过政策或行政令排除不可信产品。例如日本2018年通过的非正式的行政指导事实上将华为、中兴的产品排除出了政府采购清单。欧盟对政府采购的统一限制较少,但出于安全与战略考虑已在酝酿政策工具,如提议制定“关键技术清单”,成员国政府采购时须优先考虑欧盟或可信供应。

加强监管机构的分工与协调。目前美国尚无专门的人工智能监管机构,不同联邦机构基于现有法律对人工智能应用进行监督,由白宫科技政策办公室(Office of Science and Technology Policy,简称OSTP)和国家人工智能倡议办公室(National AI Initiative Office,简称NAIIO)发挥协调作用。如果某国外人工智能应用涉及多个监管领域,供应商需同时满足相关机构要求。欧盟建立人工智能办公室(AI Office)+国家机构双层架构,进口的人工智能产品既要满足欧盟统一法规,也可能面临进口国市场监管机构和行业主管机关的多重监管。英国赋权现有监管机构,并设立协调机制,国外人工智能公司要在英国守规,需对应相关行业主管,对接其规则。日本实行内阁协调、省厅分工,对外国人工智能企业,日本监管当局通常以行业许可证和标准形式发挥影响。在加拿大销售人工智能产品,企业主要面对消费者隐私保护与消费品安全两大领域监管,加拿大隐私专员办公室(Office of the Privacy Commissioner of Canada,简称OPC)是对人工智能审查的重要力量。

制定黑名单及限制措施。整体上,西方更常用公开黑名单手段惩戒对手企业。实体黑名单主要在美国,其通过最为完善的对外黑名单体系,禁止与列名企业的业务往来,并形成全方位围堵:在贸易上阻断供应,在市场上驱逐现有产品,在资本上切断融资。英国、加拿大基本跟随美国清单行动。欧盟则坚持以规则为导向的“黑名单”思路,禁止特定的人工智能应用而非针对国家或企业,欧盟的限制更隐性但不容小觑,一旦法规要求抬高,未达标的外国人工智能产品将被拒之门外。此外,欧盟各国情报机构和网络安全部门也非正式地对某些外国企业列出警示名单,指导私营部门谨慎合作。日本虽没有公布针对特定人工智能企业的黑名单,但通过各项行政手段达到类似效果。例如日本政府机关基本不采购特定国家的信息与通信技术设备,这形成了事实上的黑名单。

三、国际社会对人工智能技术产品进口加强监管做法对我国的启示

人工智能作为新一轮科技革命和产业变革的重要驱动力量,是大国竞争的战略制高点。在国际社会对人工智能技术产品进口加强监管的背景下,我国需认清新形势和新挑战,紧密结合我国国情和人工智能发展实际,多措并举,完善自身的人工智能治理体系,提升进口安全审查能力,在高水平开放中更好统筹发展和安全。

建立分类分级的人工智能治理框架。可借鉴欧盟风险导向的方法,在国内探索对人工智能应用按影响和风险程度分类监管。对于高风险人工智能(涉及国家安全、关键公共利益)制定专门规范和准入条件,对于低风险领域减少不必要管制。通过分类分级,既突出重点风险防控,也保持对一般人工智能创新的包容,做到宽严相济,提高监管科学性。2025年9月,全国网络安全标准化技术委员会发布的《人工智能安全治理框架》2.0版对风险分类更加细化,体现了我国在人工智能安全治理领域持续深化、与时俱进的战略布局。

强化对人工智能技术产品进口的安全审查。参照国际社会做法,完善我国网络产品和服务安全审查制度,将人工智能产品明确纳入审查范围和敏感清单管理。制定进口人工智能技术安全评估指南,细化评估标准,如数据存储、算法可控性、源头背景等,提升审查专业性。对经评估有安全隐患的人工智能产品,可依法限制或禁止在华使用,及早防范潜在风险。

引入第三方检测认证机制。借鉴欧盟要求高风险人工智能第三方合规评定的经验,鼓励国内建立人工智能产品认证体系。对涉及公共安全的人工智能系统,引入权威的检测认证流程(可由国家认证认可监督管理委员会牵头),确保其算法、数据、性能满足安全标准后方可投入市场。这既提高用户信任,也使国产人工智能产品更具国际竞争力,与欧盟等市场的互认对接成为可能。

完善政府采购与供应链安全制度。回应“五眼联盟”国家针对我国的限制措施,在政府采购领域进一步明确安全要求和负面清单。制定政府采购人工智能产品安全管理办法,将供应商资质审查、产品安全测试、数据存储要求等作为强制环节。建立可信人工智能产品目录,优先选用经过安全认证的国内外人工智能产品;同时动态更新禁止采购清单,将被证实有后门、泄密等问题的产品及时列入清单,确保政府数字基础设施安全可控。

健全监管协同机制和提升监管专业能力。借鉴国际经验,强化多部门协同监管机制。明确网信办、工信部、科技部、公安部、市场监管总局等在人工智能进口安全中的职责边界,建立信息共享和联合执法机制,避免监管空白和重复。培养一批既懂人工智能技术又懂安全审查的复合型监管人才,引入人工智能工具辅助监管,提高发现问题和应急处置的能力。同时利用行业协会和第三方机构力量,共建人工智能治理生态,形成政府引导、多元参与的良性循环。

对接和制定国际规则,提升话语权与影响力。密切跟踪欧盟《人工智能法案》等国际规则动态,及时更新国内标准使之对接国际高水平要求。比如在数据保护、算法透明、偏见消除等方面,借鉴欧美相关标准及做法,结合我国实际,从而倒逼国内外人工智能供应商提高产品合规水准。积极参与人工智能全球治理规则制定,在联合国、G20等框架下提出中国倡议,推动形成更加平衡、公正的国际人工智能贸易与安全规则,减少他国不合理限制。同时,以此为契机,提高我国人工智能监管规则在“一带一路”沿线国家的影响力和采用率,为我国人工智能产品出海营造有利环境。

酌情实施“中国版”的“不可靠实体清单”。对确证存在安全风险或对华歧视性行为的外国人工智能企业,可启动“不可靠实体清单”程序,依法采取限制措施,维护国家利益。但在执行中应遵循透明公正的评估标准,避免泛化滥用,以免损害开放创新环境。通过高门槛、可信服的清单运作,向国际社会表明中国捍卫数字主权和公平贸易的决心,让外国供应商更加重视中国市场的合规和合作诚意。

总之,我国在人工智能技术产品进口监管上需要统筹发展和安全,平衡开放与自主,逐步形成体系完备、标准先进、管理科学、开放包容的人工智能治理制度。一方面保障国家安全、社会公共利益和用户权益;另一方面创造健康有序的创新和营商环境,促进国内外人工智能技术交流合作。通过不断完善制度政策和汲取国际经验,我国有望在全球人工智能治理中发挥更加积极主动的作用,既确保自身发展和安全,也为世界贡献“中国智慧”和“中国方案”。

危红波,华东政法大学国家安全研究院数字安全法治研究中心主任

    进入专题: 安全监管  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 政治学 > 国家安全学
本文链接:https://www.aisixiang.com/data/172135.html
文章来源:本文转自中国党政干部论坛,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统