内容提要:生成式人工智能携强大势能深刻塑造全新的国家安全图景。不同于任何传统技术存在物,新一代人工智能直抵意识形态定义和塑造的基底层,深嵌于文化生产传播消费全生命周期,并日益加速构建一种总体性文化景观。因应此番文化变局,需要以总体国家安全观为指引,树立总体性国家文化安全观,即同时从功能与过程两方面审视新技术背景下国家文化安全风险的整体表征,又立足于技术与人、数字空间与实体空间、国家与国家、资本与权力等多重博弈关系来系统揭示国家文化安全风险肇启的伦理、价值、权力、资本机理,进而突破应急“救火”式治理和“头痛医头、脚痛医脚”式治理的局限,为科学构建新一代人工智能背景下国家文化安全的总体防护策略提供坚实的理论支撑。
标题注释:本文系教育部人文社会科学重点研究基地重大项目“国家安全治理研究”(编号22JJD810001)的阶段性研究成果。
关键词:国家文化安全/ 总体国家安全观/ 人工智能治理/ 总体性防护/
作者简介:张恩,湖北民族大学马克思主义学院副教授、北京大学国家治理研究院副研究员,主要研究方向为国家文化安全;高鹏程(通讯作者),北京大学政府管理学院教授、北京大学国家治理研究院副院长,主要研究方向为国家安全;张帆,清华大学公共管理学院公共管理硕士研究生,主要研究方向为国家安全。
原文出处:《国家安全研究》(京)2025年第4期 第61-79页
生成式人工智能代表的新技术加速迭代与深度应用,正在颠覆式改写人类社会文化生产传播和交往模式。作为现象级的文化事件,电子游戏《黑神话·悟空》和电影《哪吒2》大量运用人工智能技术创新展示中华文化,启迪AI时代文化生产、传播新思路,通过AI赋能文化事业大发展。与此同时,智能技术狂飙猛进也给文化安全带来相应挑战。新一代人工智能正在加速构建一种总体性文化景观,具体表现为:人工智能加速将人类文化进行全景式数智化转化,加速从具体文化事业产业领域向价值定义、意识形态塑造、主流文化传播等文化基底层渗透,加速向文化生产—传播—更新的全周期及全要素覆盖延展。
因此,在新一代人工智能背景下审视国家文化安全议题,需要以总体国家安全观为指引,深化文化安全内涵认知,打破专业视角、学科视角、学者视角下的碎片化叙事窠臼,探讨如何对文化安全进行总体性防护。即在文化安全领域遵循整体、辩证和动态过程的思维导向,综合分析研判国家文化安全风险的系统表征、多源诱因,进而提炼安全防控的总体策略。基于此种考量,本文按照“风险整体表征—风险生成系统机理—防护综合治理”的分析逻辑,力图揭示智能时代的国家文化安全风险表征的整体图景,挖掘国家文化安全风险诱生的深层机理,将安全风险防护由应急管理提升为总体治理。
一、人工智能背景下国家文化安全风险的整体表征
总体国家安全观视域中的“文化”指向文化有机体或动态演化的文化系统。以此观照文化安全风险表征,既要审视文化有机体遭受威胁出现结构受损、功能紊乱乃至失能的可能性和现实状况,又要研判文化生命周期发生的文化安全失序风险状况。换言之,功能性表征与过程性表征合体构成国家文化安全风险的整体表征。
(一)国家文化安全风险的功能性表征
国家文化具有传承集体历史记忆、传递存量知识、内化集体价值、塑造民族特色和国家形象等多重安全功能。功能视角下的国家文化安全即国家文化主权不受侵犯、国家文化价值内化能力不受颠覆、国家文化主体性得以维持。
一是国家文化主权安全风险。一方面,人工智能可能重创技术弱国的文化安全防护能力。人类历史上的重大科技创新往往充当着重塑国际力量分配格局的革命性力量。新一代人工智能技术的深研普用日益展现出成为大国强国发展重器的显能。然而,国家间开发部署人工智能的进度和水平参差不齐,据此获得的力量增益水平具有不平衡性。那些能够借助新技术之利推进文化创造性转化和创新性发展的国家,将会更好地实现国家文化总量增长、质量跃升。相反,发展运用人工智能滞后的国家则可能面临本国文化形态、舆论导向、意识形态被技术强国深度渗透和控制的危险局面。另一方面,任何国家的文化主权都可能遭受“智能利维坦”①的普遍威胁。赫伯特·马尔库塞(Herbert Marcuse)曾预言:“当技术成为物质生产的普遍形式时,它就制约着整个文化;它设计出一种历史总体——一个‘世界’。”②在尼尔·波茨曼(Neil Postman)看来,当技术与人类文化的关系从“工具使用文化”“技术统治文化”达到“技术垄断”阶段之时,便是一切文化创造服膺技术统治的末世。③亦即,人工智能时代人与物的关系可能发生颠倒,④智能技术俨然充当起控制人类社会文化生产传播的异化力量,人类社会可能遭遇普遍的文化不安全状态。
二是国家文化价值安全风险。其一,破坏价值生产秩序。凭借大数据筛选控制和算法设计,人工智能技术开发者、高科技公司及其背后的资本力量长驱直入文化价值生产的渊薮,获取价值标准定义和内容筛选权能,不断分割国家权力主导的价值生产权。其二,挤压价值传递渠道。新技术起底式的价值生产功能赋予人工智能“技术即媒介”的新特质,进一步拓展了私人资本控制的智能媒体数量和渠道,其文化价值传递可及性能力与话语权不断增强。其三,削弱国民价值判断能力。人工智能技术具备克服碳基生物新陈代谢局限的“超人”般应用优势,必然加速人工智能泛在图景的到来。传统情境下的代际交往、人际交往所创造的价值内化情境将更多让位于人机互动的智能情境,人们凭借情绪感知、情感共鸣、权威影响等文化交往手段培植涵养价值判断的能力可能不断弱化。其四,冲击意识形态防护体系。诸如训练数据集的知识产权归属、智能体行为的伦理边界等新问题均超出了现行法规的约定范围,⑤这就意味着仅仅依靠原有治理规范难以有效规约新技术条件下表达呈现的意识形态秩序。⑥然而,构建新的适配治理规则尚需响应时间,在此期间存在的规则真空及各方利益主体所采取的策略性行为,无疑都对国家现有意识形态安全防范机制及其效能构成较大挑战。
三是国家文化主体性安全风险。文化主体性是特定国家和民族显著有别于其他国家、其他民族的文化特质。其一,可能面临文化同质化风险。新一代人工智能技术在全球和全人类尺度上,不断削减地域藩篱和国家边界束缚,促成地域文化的全球性数字化会聚,正在加速创造同质性数智新文化。技术强国在“世界文化”面貌下加速向其他国家扩散渗透本国文化价值观,弱势国家流行的文化景观日益与本国历史、文化、现实社会情境及文化利益需要发生脱嵌。其二,可能遭遇文化自信心衰减问题。新一代人工智能技术以一种极具科幻想象力的方式引爆了文化生产与传播的数智化创新革命。非凡人物或伟大民族在这种颠覆性的文化创造传播能力之下变得相对平庸。当技术崇拜文化盛行之时,人工智能极有可能僭越成为人们获取文化自信的新源头。
(二)国家文化安全风险的过程性表征
人工智能技术业已深嵌文化生产、传播、消费的全过程全要素。人工智能时代的国家文化安全风险表征也蛰伏于动态变化的文化演进生命周期。
一是文化生产安全风险。其一,自主内容生产不足问题。特定国家在人工智能技术及应用上的落后必然导致文化生产速度、规模、效益上的相对滞后。这不仅会弱化文化产品供给能力和市场竞争能力,还可能制造出一种恶性循环:既抑制人工智能技术在文化领域的应用生态拓展,又弱化文化内容生产对技术加速迭代革新的内生性需求。其二,文化价值生产不足问题。缺乏高质量内容和产品,就缺少浸润心灵、争夺人心的主流价值观塑造手段。缺少智能文化生产净化能力,如不能有效清除腐朽糟粕内容、反动思想、虚假信息,抑制私利至上、金钱至上、娱乐至死、媚外媚俗等负面价值观,必然造成国家主流文化价值生产变形走样。其三,虚假生产繁荣问题。人工智能强大的信息合成生成能力,使其变成效率更高、逼真度更高的深度伪造工具。一方面,互联网海量数据本身就混杂着较多不良信息、虚假信息,大模型训练数据集将这些未经完全清洗筛拣的数据纳入其中,自然难以充分保证输出结果的真实可靠性。另一方面,生成式人工智能以数据信息还原主义为方法范式,为通过蓄意污染他国人工智能基础大模型采用的数据源进而冲击他国文化价值生产秩序提供了技术空间。
二是文化传播安全风险。人工智能创新构建智能媒介新生态的同时,也在加速解构既有传播理念、方式和生态。其一,信源失真风险。人工智能生成内容(AIGC)不仅继承和扩大了用户生产内容(UGC)超越专业生产内容(PGC)的格局,不断打破专业机构和权威主体的信源垄断地位,还以训练数据集学习转化方式将失真信息固化下来,为掺杂虚假信息、合成虚假数据等污染信源数据的行为打开方便之门,进而从信源上冲击国家文化安全传播秩序。其二,媒介弱化风险。科技强国可凭借先发技术优势抢占智能媒介布局先手棋,增强智能信息传播和舆论引导能力,此方面部署发展不足则将导致国家文化传播渠道匮乏、文化传播能力弱化等现实风险。同时,私人资本控制的高科技公司凭借技术研发优势也将进一步增强媒介控制能力;国家如不能充分利用智能技术重塑传播体系、增强传播能力就有可能被削弱公共文化传播主导权。其三,输出极化风险。基于用户行为偏好数据精准画像,智能分众化传播发展到精准匹配的更高阶段。智能算法控制下“信息茧房”和价值“回音壁”的问题业已显化。在高度同质化的信息笼罩之下,受众的价值偏向受到技术隐性强力塑造控制,势必加剧“价值锁定”与群体“价值极化”效应。
三是文化应用安全风险。以ChatGPT和DeepSeek为引领的人工智能基础大模型不断迭代成熟,人工智能奔着“泛在”情势而去,技术的内生性风险加速向应用性风险蔓延。其一,国家文化信息安全问题。人工智能技术不断增强其穿透国家文化大数据的能力,相关公共部门稍有处置不慎极有可能造成机密文化信息泄露。值得警惕的是,即便采取严格的数据脱敏及相应安全应用规程,安全攻击主体仍有可能借助数据关联、算法演绎等逆向还原技术挖掘敏感机密信息。其二,文化创新能力弱化风险。凭借信息集成优势和生成内容的多模态转换优势,人机互动日益成为文化创新的主流样态,不断降低了人们能动参与、创意求解的束缚和压力。有研究者指出,按照用进废退原则,智能技术的过度使用和严重依赖或将导致人的智力和体力严重退化。⑦其三,多元混杂价值冲突风险。大模型训练依赖的大数据数字化映射了各国文化价值观背景。在设定人工智能发展原则问题上,任何国家都将面临本国利益与全人类共有利益的取舍博弈,这种发展“悖论”强化了各国以彰显本国文化底色和价值观念为基础的人工智能开发部署取向。生成于不同文化背景的智能模型技术及其产品必然反映多元的、冲突性的文化价值景观,特别是人工智能产品的跨国跨文化部署将会面临不同文化价值观之间的深层张力。
二、人工智能背景下国家文化安全风险生成的多维逻辑
基于功能性表征和过程性表征把握国家文化安全风险,是对新一代人工智能技术的内生性风险和其在文化领域应用的随附性风险的总体观照。作为人的对象化活动,人工智能技术路线倾向、价值取向及由此生成的诸般文化安全风险皆由其中关键多元主体间的选择博弈而起。
(一)人工智能技术的伦理负载
人类发明的人工智能是否会脱离人类控制以及如何防止技术理性吞噬价值理性,这是一个经久探讨但仍悬而未决的伦理学议题。新一代人工智能呈现的智能性,已涉及对人类认知力、批判力思维、价值系统等文化深层的塑造,文化安全问题直击智能与智人的二元关系层面。一旦人的文化主体性无法得到优先保障,国家文化安全自然随之失虞。
一是联结主义技术进路让渡人的完整控制权。目前看来,新一代人工智能的跃迁式发展,似乎预示着联结主义技术路线对符号主义技术路线的“胜利”。二者反映了自然语言处理上规则路径与统计路径的分化。⑧符号主义将理解和符合人的逻辑作为优先规则,致力于将人类文化及其价值标准化、代码化。按照这一技术发展逻辑,人工智能将具备价值确定性、完全可溯源性和充分可解释性等技术特征,也能最大程度地确保机器智能遵从人类意志并捍卫人的文化主体性。而联结主义技术进路则聚焦经验层面,视信息为知识,并通过大数据和统计规则追求概率涌现。⑨然而,该进路实际上遵循的是“物质学科范式的机械还原方法论”,不仅割裂了信息在形式、内容、价值之间的整体性,⑩甚至以牺牲要求人工智能理解并复刻人类认知逻辑和伦理规范的优先性为代价。被广泛推崇的机器人三定律(Three Laws of Robotics),其核心要义就是让智能以服从人的安全利益为绝对准则。(11)因此,从表象看,新一代人工智能技术路线所抛弃的是对于逻辑规则编码的理想主义追求;从内里看,则是动摇了长期以来坚持人工智能绝对服膺于人类意志及利益的至高伦理规则之要求。这就为人工智能以其“颠覆性”技术理性僭越人的文化主体性提供了可能前提。同时,当前人工智能突出存在的“反尺度”(Inverse Scaling)现象、机器“幻觉”(Hallucination)(12)、技术“黑箱”问题以及由此导致的数据信息难以溯源、结果可解释性不足等诸多难题,进一步削弱了人对人工智能运行状态及其输出结果的控制力。
二是智能应用延展泛在催生“技术至上主义”。当前,人工智能不仅内蕴摩尔定律(Moore’s Law)(13)、加速回归定律(Law of Accelerating Returns)(14)等加速机制,呈现指数级的技术迭代、性能优化、多模态化和具身智能化,还在加速向各个行业领域拓展应用场景。人工智能日新月异的发展将互联网时代的“万物互联”推向“万物智联”的全新境界。在工具意义层面,人工智能将机器从解放人的体力劳动推升到解放人的脑力劳动的全新阶段,并展现出穿透一切人类实践活动范畴的强大势能。人工智能应用的泛在性及其碾压式性能表现将助推其成为人类社会的超级应用物。在精神文化层面,人工智能技术的强大威能将进一步为科学技术“赋魅”,由此催生“拜技术教”意识形态的扩张。而“拜技术教”的实质就是将人的创新思维、价值抉择主导权让位于本应处于辅助地位的人工智能,进而造成人与智能的主体间性(15)严重失衡和错位。这种奉行技术万能主义的文化思潮将机器智能尊为文化生产的新权威,而人的创造性、人格和自由则不断遭受贬抑,可能导致技术宰制之下人的精神无力感和主体性衰退。
(二)人工智能技术的价值负载
作为生成式人工智能的三大基石——大数据、算法、算力皆非价值中立物。如此特征内生性决定了任何建立在生成式人工智能大模型基础上的智能应用,均具有天然荷载意识形态的工具属性。这种技术与文化价值内在深层勾连的特性深刻表明了国家文化安全风险具有技术源生性。
一是大模型技术基座内生价值冲突。新一代人工智能以海量大数据为物料基础,既汲取事实信息,也同步复刻涵摄各种价值信息,并不断接近整体复刻人类文化景观及其价值观的层次。正是拥有此种规模量级和深度的人文数字化能力,人工智能生成内容才得以呈现接近人类社会真实状态的性能表现。然而,现行技术路线下所用数据内含的负面价值具有不可完全清除性。从数据体量和规模来看,新一代人工智能大模型主要从开放网络爬取训练所需的海量数据,量级大到无法完全过滤和筛选。从技术创新成本来看,提高数据的合价值性需要支付延缓开发速度、消费额外资源的“对齐税”(16),这将抑制生成式人工智能技术开发者建设高质量合价值性数据集的投入动力。因此,尽管业界采取了诸如数据清洗、毒性测试、监督学习、指令微调等技术手段来弱化含负面价值观的数据被采用或产生的消极后果,但是数据内在积存荷载的负面价值观内容具有不可回避性和不可完全清除性,文化安全风险生成也就具有了必然性。
二是新技术固化深层文化价值冲突。现实世界的价值分歧和文化冲突经由人工智能映射转换依然如故。在智能社会到来前,凭借不同地域疆界、国家实体、语言世系等区隔,各种冲突性的文化景观压缩控制于特定范围,加上国家在国内构建防范亚文化冲击主流文化价值观的层层控制机制、在国际建立政治对话和文化过滤等调控机制,文化碰撞冲突后果的可控性相对较高。然而,新一代人工智能正在创造这样的时刻:反映人类共识与冲突的现存文化内容,全量化、整体性地进入人工智能系统并被复刻、计算、生产和固化;随着智能泛在和智能依赖情形的加剧,传统的区隔机制和国内外防控机制正在全方位被削弱,各种人际、群际、国际交互的文化冲突情势化处置机制功能正在快速消融、重构。如此下去,原本分散于不同国家且尚未取得完全共识的文化价值观,在事实上被人工智能技术以现状确认的方式予以“冻结”,进而形成“价值锁定”效应。而本应承载打破地理疆域、政治边界束缚的开放性技术,则很可能沦为文化交融和价值共识达成的新生阻碍。
(三)人工智能技术的权力负载
各国发展前沿人工智能技术能力的不平衡增长,深刻影响到国家运用人工智能捍卫本国文化主权、文化主体性的能力。这将激发各国运用人工智能生产传播本国文化的动力和防范他国进行文化同化、文化入侵的危机感,也将强化特定国家主动部署应用新一代人工智能进行国家文化安全斗争的权力动机。
一是人工智能成为捍卫国家主权的新构件。人工智能已经引发新一轮科技革命、产业革命,并延伸激化国家间政治、经济、科技、安全等各领域竞争。国家视野中的人工智能日渐成为捍卫国家主权独立、自主发展和文化安全等战略目标的基础设施构件。为此,世界主要科技—经济大国纷纷将发展人工智能定位为国家战略加以部署推动,不仅诞生了“主权人工智能”这一全新概念,(17)也造成世界主要国家的人工智能发展战略具有突出“高政治”叙事特征。(18)根据斯坦福大学人工智能研究所(Stanford HAI)发布的《2025年人工智能指数报告》显示,美国(40个)、中国(15个)、欧盟(3个)继续以前三强的位次占据2024年发布的顶级大模型排行榜。(19)掌握着新一轮科技革命的主动权和新技术产业革命的主导权,才能更好发挥话语定义、新媒介和文化传播的先发优势。相反,一国如果不能独立自主地发展出符合自身文化价值观的人工智能基础大模型及广泛铺设于其上的各类智能产品,就不得不接受反映其他文化背景、语言语种的人工智能在本国大行其道,也就丧失了自主支撑和维护国家文化安全特别是意识形态安全的智能基建。
二是人工智能成为意识形态竞争新武器。国际社会围绕发展何种人工智能存在本国价值优先和人类共同价值优先两条路线的冲突与博弈。美国是前一路线的典型代表,不仅在以“符合公众利益”为主题的巴黎人工智能峰会上拒绝签署共同声明,还公开宣称要确保美国人工智能技术标准继续成为全球的“黄金”标准。早在2019年,时任总统特朗普就签发《保持美国在人工智能领域的领导地位》行政令,宣称保持美国在AI研究、发展和应用上的领先地位“有利于塑造AI的全球革命符合美国的价值观、政策与优先项……保护美国在AI上相对于战略竞争对手和敌对国家的优势”;(20)美国人工智能国家安全委员会(NSCAI)提交给总统和国会的最终报告也明确描述了“利用人工智能来捍卫自由人民和自由社会”“保障民主的未来”等高度意识形态化的目标愿景;(21)OpenAI公司致信美国政府时也提出“民主人工智能”之类的意识形态划界标准。(22)这表明,视新一代人工智能为国家意识形态武器是美国精英层的一致取向。因此,对于“价值对齐”这类充满弹性和语义陷阱的话语要保持高度警惕。利用“对齐”特定国家的特定价值,人工智能基础大模型将发展为新型意识形态武器,人工智能可能成为国家文化安全风险的策源地。
(四)人工智能技术的资本负载
私人资本控制的高科技公司在人工智能技术狂飙猛进中凸显了主导作用。科技资本由此获得利用人工智能从基底层生成到塑造文化价值观的强大能量,深刻地改变了国家文化生产传播的公私权力博弈格局。私人资本所遵循的技术发展路线和产品应用策略极易溢出技术、经济范畴,挺进国家政治乃至全球政治场域。
一是“寡头效应”增强资本价值塑造力。开发新一代人工智能的高技术、高成本门槛促成了高新技术与大资本的亲密结合。以ChatGPT为例,由微软专造的超级计算机总算力消耗约为3640PF-days,使用了上万张Nvidia H100和A100Tensor Core GPUH100显卡。(23)而每张Nvidia H100的官方售价高达35000美元,这就意味着大模型训练仅芯片一项投入就高达数亿美元。据中国信息通信研究院研究数据显示,2024年上半年全球最大的10笔融资中有6笔为大模型企业融资。(24)按照近几十年来科技创新演化规律,经过市场竞争筛选留存下来的人工智能技术最终将由本行业头部企业供给。借助垄断优势,科技巨头不仅在特定国家内部扩张自身实质影响力,还将伴随跨国业务布局扩张其全球性影响力。
二是资本逐利逻辑弱化公共价值建设责任。开发部署人工智能的资本增殖逻辑与人工智能强大的文化价值观塑造能力存在明显张力。按照资本逻辑,智能市场应持续奉“精准服务”的产品优势和用户“需求至上”的服务理念为圭臬,而解决精准画像、算法匹配制造的“信息茧房”“价值极化”等问题则不是优先考虑事项。与此同时,鉴于人工智能日益上升为塑造国家主流文化和价值观的关键机制,确保人工智能基础模型和产品应用践履公共文化责任就变得紧要而迫切。这就要求人工智能技术开发者及其背后的资本必须适度克制逐利冲动,限制或拒绝唯用户需求导向,在技术开发与产品运营中更加积极地创设公共文化责任建设机制。因而,如何在激发资本活力与技术创新持续有机结合的同时,又防止资本过度逐利导向下人工智能技术开发与产品应用可能给国家文化安全秩序带来的冲击,是当前及今后一段时期国家文化安全治理必须前瞻预判并布局防范的关键议题。
三、人工智能背景下国家文化安全的总体性治理
人工智能非因安全而生,却因与安全体系内诸要素诸环节深度链接而自带国家安全工具属性。(25)面对复杂多样的人工智能技术安全风险,综合治理被认为是确保人工智能造福人类的必由之路。(26)特别是新一代人工智能背景下国家文化安全风险表征呈现类型多样性、诱因多维性的特点,唯有秉承总体国家安全观,坚持发展和安全并重原则,立足文化生产、传播的全周期与人工智能技术研发部署的全过程,才能构筑人工智能时代国家文化安全防护治理的完备体系。
(一)人工智能基座技术治理
鉴于新一代人工智能从技术基底层植入和塑造价值观、参与文化生产的特性,针对人工智能基座层的技术治理具有逻辑优先性。核心逻辑在于清除大数据层面的文化价值污染、发展符合人类良善伦理的智能技术、构筑契合国家主流文化价值的基础大模型及衍生产品。
一是发展本国自主的基础大模型。通过算力等关键资源倾斜分配、财税金融等政策供给,国家明确推动本土人工智能公司开发中文基础大模型,引导相关企业在提高训练参数规模、迭代优化算法、扩展应用场景中严格遵守公序良俗,引导国内企业协同优化技术创新能力。例如,百度搜索通过接入DeepSeek创建RAG(Retriever-Augmented Generation)取得技术优势,增强生成答案的可解释性,有效化解大模型幻觉问题,为文化安全生产与传播提供了更可靠的技术支撑。同时,为全方位呈现中华民族多元一体文化格局,既要坚定不移开发基于国家通用语言文字的大模型,又要将少数民族文字语言语料纳入训练数据集;既抓取当代优质文化数据进行训练,又要有意识地推进对优秀传统文化资源数据的训练。
二是强化人工智能“价值对齐”。在技术层面,除了采用监督学习(Supervised Learning)、人类反馈强化学习(RLHF)等人机结合对齐技术外,持续支持企业研用“毒性检测”方法、“宪法人工智能”(Constitutional AI)自对齐技术、价值敏感设计(Value Sensitive Design,VSD)(27)等各种新对齐技术。在政策层面,设立监管人工智能价值对齐的强制性条款,要求开发者履行价值对齐技术及成本等关键信息报告披露义务;同时,基于成本和合规性测评结果给予开发者特定的资源奖补,弥补价值对齐产生的高额“对齐税”,推动智能企业履行价值对齐责任法治化。
三是推进人工智能算法治理。首先,建立算法白名单机制,禁止算法未经安全测试便直接进入运用场景,确保被实际应用的算法从设计使用之初就满足国家文化安全要求。具体的算法治理规程主要应包括以下关键环节:特定部门负责受理新算法登记申报→开展算法安全评估测试→公布列入白名单的合规算法。其次,建立算法合规责任治理机制,防止特定主体通过篡改、操纵算法实施恶意价值渗透和文化攻击。相关法律法规应注重设置宣示性条款,阐明国家治理算法的鲜明立法意图和价值观导向,同时采用义务性条款和禁止性条款约定算法开发应用主体的行为边界,明确算法不当开发运用造成国家文化安全事件的法律后果。
四是实施国家文化大数据战略。习近平总书记明确指出:“要全面提升技术治网能力和水平,规范数据资源利用,防范大数据等新技术带来的风险。”(28)首先,加快推进文化大数据扩容工程。通过信息脱密脱敏处理、交互授权、公共文化数据分级开放、加速中华优秀传统文化数字化转化和激励大型公司开放共享数据等举措,破除“数据孤岛”问题,激活海量沉淀文化数据资源价值。其次,加快推进文化大数据提质工程。如,有组织建设吸纳包含中华优秀传统文化、红色文化和社会主义先进文化的中华文化大数据库,并及时转化应用为高质量训练数据集;持续推动净网治网行动,力除有违公序良俗、道德伦理和主流价值观的内容。最后,引导大模型开发者构建高质量数据集。目前,本土人工智能生成内容尚未充分反映当代中国公众持有的文化主体意识,有必要采用加权或复制训练的数据处理策略,以解决中国网络大数据在文化主体性方面存在的时间演化差异问题。(29)
(二)人工智能产品应用治理
兼顾激活私人资本科技创新投资活力与切实维护国家文化安全利益的双重目标,在人工智能产品的生产、发行、流通、服务环节嵌入安全规制,既是平衡市场规律与宏观治理的合理选择,也是实现人工智能安全依法治理的必要之举。
一是基于风险等级建立人工智能产品分类分级治理机制。首先,依据形塑国家文化安全的技术能级,可将人工智能产品划分为基础大模型产品、垂直领域大模型产品、前端应用产品3个层次,确定各自对应的国家文化安全规制重心。具体包括,基础大模型产品规制重心在于确保数据来源合法、权属明晰,履行提高数据多样性、客观性、准确性和标注规范性的质量控制责任;垂直领域大模型产品规制重心在于采用合法来源的基础模型并履行报告义务,同时履行模型训练的相关数据规范要求;前端应用产品规制重点在于落实网络信息安全义务、个人信息保护义务和智能信息内容生产者责任。其次,综合考虑产品投放领域及应用规模,进一步细化差异化的适配规制要求。应着重严格规制涉文化价值观生产传播领域的人工智能技术产品及其部署机构,2023年中国颁布实施的《生成式人工智能服务管理暂行办法》第十七条规定就体现了此类规范立意。还可借鉴中国数据出境安全评估政策引入数量规模的规制理念,(30)在其注册用户达到特定规模后动态升级规制等级。此外,欧盟《人工智能法案》将涉及公民教育在内的八类人工智能产品列入高风险范围的做法也具有借鉴意义。(31)
二是依托群防群控安全防护策略建立分布式监管机制。通过构建多元共治的监管机制来化解政府监管资源配备不足、监管成本过高和数智化监管体系尚不健全等难题。一方面,尽快激活产品消费者的自我权益保护动能,畅通消费者投诉举报问题线索通道,增加人工智能产品损害和威胁国家文化安全问题的曝光度,引导和推动广大人工智能产品用户在消费者权益保护框架下参与产品安全监管。另一方面,积极推动行业自组织治理。鼓励和推动人工智能技术及产品上下游厂商组建行业协会,制定行业自律公约、从业规范和职业规范,载入履行文化安全防护的自律责任条款,赋予行业协会受理移交相关违规线索以及参与安全风险排查、事故调查和对会员成员单位及个人实施法律限度内必要惩戒措施等组织权能。
三是基于正向赋能效应构筑国家文化安全智能防护体系。首先,推动国家文化安全智能防护技术及产品开发。政府及时将文化安全技术及产品列入国家安全人工智能建设规划,支持本土基础大模型技术公司参与开发国家文化安全监管类垂直大模型和各类国家文化安全应用产品。其次,构建国家智能传播矩阵。公共文化宣传机构积极接入可控可信的智能技术产品,加快构建集信息采集、筛选、加工、分发的智能传播体系,既可更好地满足人民日益增长的个性化文化消费需求,又通过提升主流文化传播效能捍卫国家文化安全。最后,文化安全主管部门应积极适应新技术要求,深度融合人工智能开展文化安全风险探测监测、数字画像、轨迹运算,提高文化安全监管情报搜集、科学决策能力。(32)
(三)国家文化安全生态建设
智能时代国家文化安全态势的总体性特征要求相关安全防护超越惯常逻辑——就具体文化风险做防控和就具体安全问题做治理,坚持整体思维和全局观念,推进源头治理、系统治理,构筑国家文化安全生态屏障。
一是提高国民人工智能安全素养。国民的文化水平、价值判断力和自控力决定了具体个体受意识形态风险渗透、诱导、操控的现实可能性。因此,提高国民的文化安全素养、人工智能素养是防护国家文化安全的基础条件。在学校教育层面,开设智能科学安全教育课程,推进“国家安全学”和“人工智能”学科交叉,加快培养政治素质高、科技水平强的复合型智能专业技术人才至关重要。在社会教育层面,针对大众积极开展人工智能安全知识大众科普和分众化宣传教育,针对人工智能行业从业者制定、培训并落地实施安全操作规程。
二是增强中华文化自觉自尊自信。习近平总书记强调:“坚定文化自信,是事关国运兴衰、事关文化安全、事关民族精神独立性的大问题。”(33)面对新一代人工智能技术背景下更加激烈的文化较量、更加隐蔽的价值渗透、更加流行的“技术万能”文化思潮,必须将增强本国和本民族的文化自觉、自尊、自信置于突出位置。具体包括深入宣传学习习近平文化思想,推进中华民族、中国历史、中华文化理论学习教育,增强国民抵御各种价值渗透冲击的文化根基;深入推进大中小学思想政治教育一体化建设,提升党史、新中国史、改革开放史、社会主义发展史、中华民族发展史教育质效,开好《中华民族共同体概论》等思想政治理论课,不断增进青年学生对中华文明、中华民族、中华文化的自信心,为国家文化安全防护提供最可靠、最厚实的价值支撑和文化力量。(34)
三是推进人工智能安全的全球治理。正如全球首届AI安全峰会上签署的《布莱切利宣言》所倡议:“人工智能产生的许多风险本质上是国际性的,因此最好通过国际合作来解决。”(35)在治理理念上,继续倡导“人类命运共同体”高阶价值观,推动《全球人工智能治理倡议》被国际社会更加广泛接受;(36)推进科技向善,运用人工智能正向赋能信息传播与文化交流,“消弭各种意识形态和宗教等带给人类的隔阂、缚束,乃至形成更加和平融洽的‘人类命运共同体’”。(37)在治理机制上,积极支持在联合国框架下成立国际人工智能治理机构,以平等互利原则和人类整体生存发展利益立场推动制定全球人工智能治理标准和其他有约束力的国际条规,反对滥用人工智能威胁和破坏他国文化主权安全,推动构建人工智能时代多元文化发展和多民族平等共存空间。
结语
人工智能对于国家文化安全治理具有“双刃剑”效应。新一代人工智能在展现创造性赋能文化生产、文化传播的巨大优势之时,也展现出穿透文化现象表层直抵社会价值观定义、主流价值观塑造等文化基底层的强大势能。从技术演进史的纵深视角来看,新一代人工智能技术通过全景式数字化导入人类社会文化存量、全量化提炼转化人类文化价值、全链条嵌入文化生产传播消费全过程,宣示着科学技术与人类文化关系进行重大调整时刻的来临;文化安全风险经由技术与人、数字空间与实体空间、国与国、资本与国家等关系背后的多重人格化力量的相互间博弈形塑激发,并将贯穿整个文化生命周期和文化各方面的功能层面。因此,大力化用生成式人工智能技术之利、全面规治生成式人工智能技术之弊成为国家安全治理的基本议程。(38)本文关于国家文化安全总体性防护的阐释仅为初步性探索,离理论系统化还有不小差距,诸如总体性国家文化安全与总体国家安全的关系、民族国家文化安全与构建人类命运共同体的关系等众多关键议题还亟待纳入理论视野进行深入探究。
注释:
①在政治学理论中,“利维坦”主要是指托马斯·霍布斯(Thomas Hobbes)在同名经典著作中用来描述拥有绝对权威的国家。近年来,随着新一代人工智能强势崛起,社会科学界纷纷使用“数字利维坦”“算法利维坦”“技术利维坦”等来形容新兴数字技术对人类社会的强力支配性特征。可参见张爱军:《“算法利维坦”的风险及其规制》,《探索与争鸣》,2021年第1期,第95-102页;王小芳、王磊:《“技术利维坦”:人工智能嵌入社会治理的潜在风险与政府应对》,《电子政务》,2019年第5期,第86-93页。
②[美]赫伯特·马尔库塞著,刘继译:《单向度的人——发达工业社会意识形态研究》,上海译文出版社,2014年,第142页。
③[美]尼尔·波茨曼著,何道宽译:《技术垄断:文化向技术投降》,北京大学出版社,2007年,第30页。
④贾云飞:《虚幻的“数字利维坦”:人工智能异化现象的哲学思考》,《东南学术》,2024年第4期,第187页。
⑤章诚豪、张勇:《生成式AI的源头治理:数据深度运用的风险隐忧与刑事规制》,《湖北社会科学》,2023年第11期,第129页。
⑥孙会岩:《新一代人工智能技术的网络意识形态问题及其应对——以ChatGPT为例》,《毛泽东邓小平理论研究》,2023年第5期,第50页。
⑦陈万球:《人工智能时代的劳动方式变革图式》,《武汉大学学报(哲学社会科学版)》,2023年第1期,第41页。
⑧Stephen Lucci and Danny Kopec,Artificial Intelligence in the 21st Century:A Living Introduction(2nd Edition),Mercury Learning and Information,2016,pp.433-437
⑨参见尼克:《人工智能简史》,人民邮电出版社,2021年,第129-133页。
⑩钟义信:《人工智能的范式革命与中华文明的伟大复兴》,《人民论坛·学术前沿》,2023年第14期,第38页。
(11)机器人三定律具体为:第一定律,机器人不得伤害人类,或不作为而使人类受到伤害;第二定律,除非违背第一法则,机器人必须服从人类的命令;第三定律,在不违背第一及第二定律的前提下,机器人必须保护自身存在。参见[美]艾萨克·阿西莫夫著,叶李华译:《阿西莫夫:机器人短篇全集》,江苏文艺出版社,2014年,第1页。
(12)参见矣晓沅、谢幸:《大模型道德价值观对齐问题剖析》,《计算机研究与发展》,2023年第9期,第1927-1931页。
(13)摩尔定律以英特尔公司创始人之一戈登·摩尔(Gordon Moore)名字命名,主要用来描述集成电路芯片上所集成的电路数目每隔18个月就翻一番的加速发展现象。
(14)加速回归定律由美国未来学家雷·库兹韦尔(Ray Kurzweil)提出。该理论认为,每一阶段的技术革新都是建立在既有成果基础上的指数级发展变迁。
(15)在哲学视域中,主体不是唯我的独立性存在,而是一种关系性存在。主体间性强调主体与主体之间的共在关系、互动关系以及彼此间因相互承认和交互实践对彼此的塑造后果。
(16)对齐税亦称“安全税”,是指AI大模型为实现价值观对齐要求而在开发时间消耗、经济支出成本等方面产生的损失。参见郭全中、张金熠:《AI向善:AI大模型价值观对齐的内容与实践》,《新闻爱好者》,2023年第11期,第23页。
(17)谢新水:《智能跃迁、开源创新与主权AI:DeepSeek现象推动人工智能开源创新生态体系建设》,《电子政务》,2025年第3期,第40-48页。
(18)李艳:《人工智能国际治理:“安全偏好”及其现实影响》,《国家安全研究》,2025年第1期,第74-75页。
(19)Artificial Intelligence Index Report 2025,Stanford Institute for Human-Centered Artificial Intelligence,April 30,2025,p.46.
(20)Executive Order on Maintaining American Leadership in Artificial Intelligence,White House,February 11,2019,http://gffgg021d6e1bcc024f81sb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com/presidential-actions/executive-order-maintaining-american-leadership-artificial-intelligence/.
(21)The Final Report,NSCAI,March 1,2021,http://gffgge0fc12f092da49a8sb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com gov/final-report/.
(22)OpenAI's Proposals for the U.S.AIAction Plan,February 11,2019,http://gffgg1b319b754d7548cdsb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com/global-affairs/openai-proposals-for-the-us-ai-action-plan/.
(23)John Roach,"How Microsoft's Bet on Azure Unlocked an AI Revolution," March 13,2023,http://gffgg805c641352df49c1sb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com/source/features/ai/how-microsofts-bet-on-azure-unlocked-an-ai-revolution/.
(24)中国信息通信研究院:《人工智能发展报告(2024年)》,2024年11月29日,http://gffgg5c0fdbdacae94584sb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com/kxyj/qwfb/bps/202412/t20241210_647283.htm。
(25)封帅:《国家安全学视域下的人工智能安全研究:议题网络建构的初步尝试》,《国际安全研究》,2023年第1期,第26页。
(26)沈超、赵正宇:《人工智能技术安全风险探析》,《国家安全研究》,2025年第1期,第45页。
(27)参见古天龙、马露等:《符合伦理的人工智能应用的价值敏感设计:现状与展望》,《智能系统学报》,2022年第1期,第2-15页。
(28)《习近平主持中共中央政治局第十二次集体学习并发表重要讲话》,中国政府网,2019年1月25日,http://gffgg9b9021b83ad24b3fsb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com/xinwen/2019-01/25/content_5361197.htm。
(29)马文、陈云松:《文化主体性与生成式人工智能的价值导向干预》,《江苏社会科学》,2024年第1期,第73页。
(30)根据2024年出台的《促进和规范数据跨境流动规定》,数据处理者向境外提供个人信息时,“关键信息基础设施运营者以外的数据处理者自当年1月1日起累计向境外提供不满10万人个人信息(不含敏感个人信息)的”,免予申报数据出境安全评估;当年“累计向境外提供100万人以上个人信息(不含敏感个人信息)或者1万人以上敏感个人信息的”,则通过所在地省级网信部门向国家网信部门申报数据出境安全评估。参见http://gffgg9b9021b83ad24b3fsb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com/gongbao/2024/issue_11366/202405/content_6954192.html。
(31)Artificial Intelligence Act,European Union,July 12,2024,http://gffgg945e6bc1bb044d80sb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com/legal-content/EN/,TX,T/HTML/2uri=0J:L_202401689.
(32)夏春晖:《人工智能对国家文化安全的影响与对策》,光明网,2024年6月23日,http://gffggace9f0a58bd34cbesb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com/2024-06/23/content_37394566.htm。
(33)习近平:《在中国文联十大、中国作协九大开幕式上的讲话》,《人民日报》,2016年12月1日。
(34)参见中共中央宣传部:《习近平文化思想学习纲要》,人民出版社,2024年版,第43-51页。
(35)"AI Safety Summit 2023:The Bletchley Declaration," February 13,2025,http://gffgg70f7e4b62ca14035sb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com/government/publications/ai-safety-summit-2023-the-bletchley-declaration.
(36)《全球人工智能治理倡议》,国家互联网信息办公室,2023年10月18日,http://gffggd06d89b2900c4ef4sb6n9uck0p00f6q0o.fgzb.hbpu.wttczd-86544418598.com/2023-10/18/c_1699291032884978.htm。
(37)王京生:《人工智能的文化意义和时代挑战》,《中国文化报》,2024年5月23日。
(38)张恩、高鹏程:《国家意识形态安全视域下生成式人工智能治理论析》,《科学决策》,2025年第1期,第178页。