摘 要:AI迅速发展和加快应用,为人类发展提供了新动力,也将会带来意想不到的风险,给现代国家治理提出了新的课题和挑战。现代国家在人工智能治理中应扮演什么样的角色已经成为一个新话题。AI国家治理是指,国家通过完善法律法规,创新制度环境实现AI健康持续发展,围绕着以人为中心实现价值对齐,确保AI系统的目标、决策和行为与人类发展、伦理原则、社会利益、国家安全保持一致。
关键词:人工智能;健康发展;国家治理
一、引言
AI迅速发展和加快应用,为人类发展提供了新动力,也将带来意想不到的风险,给现代国家治理提出了新的课题和挑战。自2022年初ChatGPT问世以来,人工智能技术迭代发展。一方面,理论在不断深化,技术在不断创新。2024年,被称为AI之父的杰弗里·辛顿因证明“神经网络”理论的可行性而荣获诺贝尔物理学奖;另一方面,各类技术成果逐步落地,融入生产和生活。2025年,GPT-5、Claude 4等大模型在多模态理解(如视频生成、3D建模)等领域取得新突破,“AI智能体”在自主任务执行方面取得新进展,我国在工业质检领域的大模型准确率不断提升,等等。习近平总书记指出,每一次科技和产业革命都深刻改变了世界发展面貌和格局。AI技术在日常生产、生活中的应用,提高了工作效率和生活便利性。如,生成式人工智能(Generative Artificial Intelligence)在药品研发、公共交通、内容创作、客户服务等领域表现出色。上海交通大学 SPIRAL 实验室与生成式 AI 研究实验室(GAIR)联合完成的研究表明,“通过持续探索和迭代改进,提高推理时扩展在解决实际医学问题中的可解释性和有效性;通过专注于协作研究和开放资源共享,加强计算机技术与实际医学应用之间的联系,最终改善诊断准确性、患者治疗结果和医疗效率。”眼下,AI技术已经逐步融入人们日常交互。自然语言处理(Natural Language Processing)技术使人机交互更加自然,ChatGPT等AI工具通过对话提供信息、咨询、建议;由中国企业家推出的“深度求索”(DeepSeek)在推理方面取得重大进展。2025年春节前后,围绕深度求索的讨论在国内外引发了广泛关注,大大加深了人们对人工智能的认知。AI在科学研究中开始发挥重要作用,它加速了新材料的发现和药物研发,尤其在药物研发中,AI作用凸显。当前,AI算力提升、数据爆炸、应用场景扩展、开源与协作、政策与投资、伦理与规范、教育与人才培养、国际合作与竞争等深刻影响着经济社会发展。具体说,深度学习算法,尤其是卷积神经网络(CNN)和生成对抗网络(GAN)推动了自然语言处理、图像识别等领域的迅速进步,在游戏、机器人控制等复杂任务中取得突破性进展。GPU、TPU等专用硬件迭代发展大大提升了AI大模型训练速度和效率。云计算和分布式计算技术提升了大规模数据处理和模型训练能力。互联网、物联网等发展产生的海量数据奠定了AI大模型训练的数据基础。与此同时,AI技术在医疗、金融、教育、制造、交通等诸多行业得到广泛应用。智能手机、智能家居等设备的普及,推动AI技术进入日常生活。TensorFlow(开源工具之一)、PyTorch(一种建构大模型的灵活、强力工具)等开源框架的普及,促进了AI技术的共享和协作,加速了学术界、产业界和政府之间在AI领域的合作速度。
现代国家在人工智能治理中应扮演什么样的角色已经成为一个新话题。AI国家治理是指,国家通过完善法律法规、创新制度环境实现AI健康持续发展,围绕着以人为中心实现价值对齐(Value Alignment),确保AI系统的目标、决策和行为与人类发展、伦理原则以及社会利益保持一致。当前,“全球科技产业正站在新的十字路口。人工智能、机器人技术、脑机接口和太空探索等前沿领域的突破性进展,正在重塑人类社会的未来图景”。随着AI技术迭代和颠覆式发展,国际间技术、市场竞争愈发激烈,例如,“OpenAI、DeepSeek等公司相继宣布新一代模型,AI行业竞争态势愈发激烈”。为此,各国政府和国际组织正在或已经出台相关发展战略和发展政策,努力抢占这一领域的战略制高点。我国于2017年发布《新一代人工智能发展规划》,彰显了推动这一领域高质量发展的决心和信心。正是这一系列决策部署,我国AI技术走在了世界前列,成为全球AI大国之一。2025年8月,《国务院关于深入实施“人工智能+”行动的意见》对持续推进“人工智能+”作出了具体部署,把“人工智能+”治理能力摆在突出位置,要求“有序推动市政基础设施智能化改造升级,探索面向新一代智能终端发展的城市规划、建设与治理,提升城市运行智能化水平。加快人工智能产品和服务向乡村延伸,推动城乡智能普惠。深入开展人工智能社会实验。安全稳妥有序推进人工智能在政务领域应用,打造精准识别需求、主动规划服务、全程智能办理的政务服务新模式”。这标志着我国人工智能应用已经步入快车道。支持建立健全AI监管和伦理制度,保障负责任的AI技术健康发展是现代国家的重要职能之一。现代国家既是AI发展和治理的推动者,也是AI的监管者和引导者。尽管AI迅猛发展,但必须始终牢记“为了追求生存与繁荣,每个人类信息网络都需要同时做到两件事,即除了要发现真相,还得创造秩序”。当前,发现真理和创造秩序同样重要。
二、国家参与AI治理的意义、理论基础及实践探索
(一)直面AI带来的各种挑战
人工智能带来的各种挑战正成为热门话题,“人工智能不但可能改变人类这个物种的历史进程,还有可能改变所有生命形式的演化进程”。作为一种新兴的智能技术,AI可能造成认知偏见和价值歧视。依靠带有偏见的数据训练 AI 大模型会延续,甚至放大社会不平等,带来种族、民族、性别、宗教或文化等社会歧视。在开发AI过程中,必须关注价值观对齐问题,确保 AI 系统与人类价值观对齐,尤其是那些正在进入人们日常生活的AI智能体,以确保不发生意想不到的风险。由于自主性和问责制缺失,谁负责 AI 决策是需要进一步深度探索的问题,尤其是在医疗保健、刑事司法和自动驾驶汽车等高风险领域,这类问题更不能被忽视。整体而言,未来必须明确AI行为的责任主体,因为它涉及税收、风险责任等一系列问题。遗憾的是,目前全球99%的算力用于大模型预训练,只有1%的用于价值对齐或安全研究,致使AI安全技术发展严重滞后。
AI对工作岗位流失的影响已引起人们关注,通过 AI 实现的自动化会取代制造、物流、法律、客户服务和财务分析等行业的工作岗位。AI可能会造成经济不平等,把财富集中到科技公司和富裕国家,从而扩大个人和国家之间的贫富差距。AI驱动型行业所需要的技能与当前劳动力教育培训之间的不匹配日益突出,进行大规模再培训工作已经刻不容缓,教育体制改革也十分必要。
由AI驱动的监控系统和数据挖掘算法会侵犯个人隐私,带来监控风险,隐私侵蚀成为十分重要的社会问题之一。算法带来的问题也不可小觑,“问题在于,即便是超级智能体,也仍然基于生成式AI。那么它就仍有个致命缺陷,就是会编造内容。若要将AI发展为自主执行任务的智能体,可靠性与幻觉问题会更加棘手”。基于个性化内容的算法,如在社交媒体上,会导致回音室效应、错误信息生成,进而加剧社会分化。“媒体恐怖谷效应”已经成为全球共有现象。这一提法源于“恐怖谷理论”(Uncanny Valley),1970年由日本机器人专家森昌弘提出。该理论认为,当机器人外观和行为与人类相似但不完全相同时,会引起人们的恐惧和不适感。“媒体恐怖谷效应”则是指媒体对AI创新技术的报道和描绘,特别是那些夸张或负面描述,会引发公众的恐惧和误解。有人夸大AI潜在风险,如导致失业、侵犯隐私、破坏伦理等,塑造了公众对AI的负面认知。人们还关注AI技术带来的其他伦理和法律问题,如自动驾驶汽车责任归属、AI在军事中的应用等。简而言之,媒体对AI技术片面报道,公众对AI认知偏差,过度关注其潜在风险而忽视其积极影响,都会产生“媒体恐怖谷效应”。AI还会带来心理健康问题,过度依赖人工智能驱动的系统和交互,如聊天机器人、虚拟伴侣,会淡化人与人之间的社会交往。
AI 既可以提高网络安全防御能力,也可以创建更为复杂的攻击方式,如进行深度伪造或开展自动黑客攻击。“深度伪造2.0”技术引起了国际争议,大国之间算力竞赛加剧,“AI军备控制”议题商榷陷入僵局。运用AI于自主武器系统或网络战中将对全球安全构成重大威胁。在这个意义上,AI 带来了治理和监管方面的挑战。许多AI大模型,尤其是神经网络,基本还是“黑匣子”,人们很难解释其决策过程,导致AI系统运作的不可理解性。AI 在创造力、解决问题和决策方面的能力不断增强,将挑战长期以来有关人类独特性和目标的理念。由于担心自动化会侵蚀传统做法和价值,一些文化会抵制 AI 应用,造成文明或文化冲突,甚至构成前所未有的哲学和技术挑战。AI 带来了环境生态压力,训练大型模型和维护数据中心需要大量能源,如果不能开发清洁能源,将会造成海量碳排放。与AI 相关的硬件发展将导致电子垃圾增加。如果AI系统出现故障或遭受入侵,如在医疗保健、运输或军事行动等关键领域,将会产生不可估量的后果。
2024年底至2025年初,人们热议2025年将是AI智能体元年,面对这种发展态势,相关伦理和价值问题更应尽快提上议程。未来,人类将与AI形成更密切的人机合作。把AI作为人类生活的重要组成部分,它将影响或改变人类的身份和角色,这都是国家治理现代化必须面对的问题。国家治理现代化需要聚焦AI领域的国际竞争、伦理规范、社会公平、法律监管等多维度的复杂问题。
国家介入AI治理意义在于,正如法国经济学家塞德里克·迪朗所指出的,“大数据还带有社会偏见和统治关系。人工智能程序不仅反映了制度和权力关系中的种族或性别不平等,而且有助于放大这些不平等。它们包含的偏见反过来又被纳入其他算法结果中。例如,有研究表明,语言分析程序‘单词嵌套’(Word Embedding)会将具有欧美含义的名字归类为好听的名字,而将非洲裔美国人的名字归类为难听的名字。”解决好这一系列的不平等不公正问题,必须有各个方面力量的介入,国家是其中之一。人们已经注意到,“数字技术的崛起正在颠覆竞争关系,转而支持依赖关系,扰乱了整体机制,并有使掠夺盖过生产的趋势,催生了我(指作者,塞德里克·迪朗—笔者注)所说的技术封建主义。”还有,如果AI系统变得过于强大且不受控制,可能会对人类构成威胁。特别是如果AI的目标与人类利益不一致,将会带来灾难性后果。针对这些问题,需要进一步研究未来的经济和商业模式,尤其是国家在AI治理中的作用和角色。
(二)国家参与AI治理的有关理论概述
1.“新兴技术治理框架”
“新兴技术治理框架”主要体现为科林里奇悖论(Collingridge Dilemma),它以英国哲学家大卫·科林里奇(David Collingridge)的名字命名,是新兴技术领域治理的核心理论之一。人工智能、量子计算、氢能技术、商业航天、生物技术以及纳米技术等新兴领域已经或正在深刻重塑人类社会,带来伦理、社会和治理等方面的问题。科林里奇悖论凸显了控制技术的难度,人们面临两方面的挑战:当技术作为一种创新形式时往往缺乏规制和治理手段,而当技术成熟并深入经济社会生活时就会根深蒂固,产生过度僵化的利益格局和制度机制。 科林里奇出版了《技术的社会控制》(The Social Control of Technology)一书,书中提出了这一悖论,这是技术治理悖论观点的开创性著作。
在书中,科林里奇从两个阶段分析了新兴技术治理的悖论。一是早期控制,在技术发展初期,控制或治理一项技术比较容易,因为它还没有完全融入经济社会生活。但在初始阶段,包括技术发明者在内的利益相关者往往对技术的潜在影响、未来趋势缺乏足够的认识,很难预测技术发展方向,这给基于可靠数据和信息实施监管的制度框架设计带来挑战。当前AI的发展现状是,AI领域的技术人员和投资人,往往过于关注技术开发带来的近期收益,甚至不惜与媒体一同夸大技术的市场契合度和社会适应度。二是后期控制,一旦技术获得了充分发展和广泛应用的机会,其后果和趋势就会显现出来,使人们容易认识到其潜在的负面影响。但是,在这个阶段上的人们往往已经产生了路径依赖:一旦技术融入社会(通过基础设施、投资、工具化、制度化),即便是产生了负面影响,人们也难以改变其发展方向,甚至进行局部调整都可能带来巨大社会反响。因为,这个阶段上的技术已深深嵌入社会运行体制机制、经济增长和技术创新系统,要做出改变或实施监管措施就会面临很多困难,且成本高昂。正如戴蒙·森托拉所说,“人们对正当性、协调性或社会证明等问题很敏感,而会遇到最大阻力的创新产品在被采纳后往往会拥有最忠实的用户。这就是社会学家所说的护城河效应。护城河效应常常是社会变革的阻碍,但它实际上也是实现社会变革的关键”。
针对科林里奇悖论,有学者建议采用适应性治理框架,其中包括采用迭代、灵活的方法监管新兴技术。这种治理方式依赖于持续学习、利益相关者的广泛参与,以及随着对技术的深入了解适当调整法规等方法。还有预见性治理,指的是在新兴技术融入经济社会生活之前对其长期影响进行评估的前瞻性方法。它鼓励社会成员、政府政策制定和监管部门尽早介入有关技术的伦理、社会和环境问题,为技术创新和监管提供支持。关于这个问题,在AI领域已经展示出来,2022年初以来,围绕着AI技术可能带来的认知、伦理、监管、税收、就业等问题,从国际到国内,人们已经进行了多方面的讨论,甚至在一些领域已经达成共识。
20世纪80年代,科林里奇提出的技术治理悖论成为人们思考新兴技术治理的基本框架。20世纪90年代至21世纪的第一个10年,人类科学技术进入加速发展时期,互联网平台、生物技术、信息技术、新材料、新能源、航空航天等创新性技术的加速演化,新兴技术领域的管理成为科学发现、技术创新的核心话题。进入21世纪的第二个10年,伴随着新技术的不断涌现,适应性治理和预见性治理框架被人们用来应对日益复杂和不断加速的技术变革,应对解决实际决策中的科林里奇悖论带来的挑战。
目前,针对AI的适应性治理和预见性治理框架的应用领域包括自动驾驶汽车、面部识别系统等。政策制定部门需要在早期创新与潜在的长期社会风险之间寻求平衡。科林里奇悖论提醒人们,监管新技术所面临的内在矛盾,将继续影响当代关于技术治理、风险管理和创新发展的伦理和监管。
2.风险治理框架
风险治理框架(IRGC)是一种结构化治理方式,它的目标是协助组织和决策者管理复杂、不确定的潜在风险。这个框架由国际风险治理委员会(The International Risk Governance Council)设计提出,它整合了有关风险科学、技术、经济、社会和制度等层面的因素,以满足风险管理和决策的全面性、透明性,以及充分知情等要求。国际风险治理委员会是一个独立的非营利性组织,于 21世纪初成立于瑞士,旨在增进和完善风险治理战略,应对各种新出现的全球风险。风险治理框架中,一是风险预评估。预评估风险的步骤包括确定风险、风险评估准备、建立早期预警系统、分析利益相关者参与框架、确定问题所在。这是风险治理的基础,它确定了风险治理的内容和范围等。二是风险定性与评估。这是在风险评估和社会价值观基础上的综合评判,它以风险是否可接受、可容忍,还是不可接受、不可容忍为核心。在这个阶段,人们在风险与效益、风险与公正之间权衡。三是风险管理。在这个阶段,需要制定并实施减少、控制或缓解已经识别的风险应对策略,诸如监管、激励等措施,开展组织和个人之间的沟通。利益相关者的参与和透明度对风险治理和确保决策的合法性十分重要。四是风险沟通。持续沟通是风险治理框架的重要环节之一,涉及风险管理者、科学家、技术人员、决策者和公众之间的信息分享。有效的沟通是增进相互信任,帮助利益相关者理解决策实质的基础性工作。五是对复杂和不确定系统的风险治理。风险治理框架强调系统性风险管理,由于系统的复杂性,其潜在风险的不确定性高,后果相互关联。风险治理框架为通过适应性迭代方法和多种视角应对不确定性风险提供了理论支撑。风险治理框架强调,包括政府、企业、行业、公众等在内的利益相关者参与是解决由技术评估到社会关切等全方位风险管控的关键。“社会变革的网络战略应该集中于吸收来自外围的声音。这种社会变革的方针促进了医疗健康中的平等和政治讨论中的公正;它能够为挽救生命的创新创造了机会,让它们在曾经失败的地方重新生根发芽,并且减小了次等创新占据主导地位的可能性。”
除了“新兴技术治理框架”“风险治理框架”,针对时代进步和科学技术发展,人们还发展出了其他方面的治理理论,诸如“参与者网络理论” (The Actor Network Theory,ANT)“道义论和功利主义伦理”“创新扩散理论”(Theory for Diffusion of Innovations,Everett Rogers )“技术批判理论” (Critical Theory of Technology, Andrew Feenberg)“监管理论”“系统思维应用”等,这些理论为当代科学技术进步及其风险治理提供了新的视角。治理理论的兴起,就是要面对这样的情景:“看起来,人们似乎总是需要通过灾难的真正发生来识别和承认灾难的到来(事后悲叹,唉,只能是事后)。如果确实如此,那真是令人恐怖和寒心。”面对技术带来的不确定性,促进技术进步和加强技术风险治理,国家责无旁贷。
(三)国家推动AI治理的实践探索
目前,各国政府正在制定实施旨在确保AI安全、道德和有益地融入经济社会的各种举措。中国是人工智能大国,也是较早对人工智能发展作出部署的国家之一。2023年7月,国家互联网信息办公室颁布《生成式人工智能服务管理暂行办法》,对促进生成式AI健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人以及其他组织的合法权益作出了明确规定。2024年,党的二十届三中全会要求“完善生成式人工智能发展和管理机制”。
2023年10月,美国时任总统乔·拜登签署了第14110号行政命令,题为《人工智能的安全、可靠和可信的开发和使用》。这份指令阐述了美国行政当局在AI行业促进竞争、保护公民自由和维护美国在AI领域领先地位的政策。该行政命令要求,联邦机构设置首席AI官员岗位,强调要为AI生成的内容开发水印系统。这与现任总统唐纳德·特朗普在2024年赢得大选后声称要任命联邦人工智能部部长并无二致。2024年10月,拜登政府还发布了关于AI的国家安全备忘录,聚焦确保美国在AI领域的领导地位,重点关注国家安全应用,提高人工智能技术的安全性和可靠性。美国人工智能安全研究所作为国家标准与技术研究院(NIST)的一部分成立于2023年11月,负责评估和确保先进AI模型的安全性。美国也在发展推动国际AI安全研究所网络,该网络汇集来自多个国家的专家一道应对AI安全风险。2025年2月,法国总统马克龙宣布“法国将投资1090亿欧元建设欧洲版‘星际之门’”。英国2023年11月成立了人工智能安全研究所(AISI),其前身是前沿AI工作队。英国的AISI与AI科学技术人员合作,旨在把大模型推向市场和社会之前对其进行潜在风险测试,确保AI技术安全,维护道德标准。英国强调,治理强大的AI公司需要“治国之道”,面对这项新技术,现有的立法方法已经无法应对,政府应建立响应迅速、适应能力强的监管体制机制,更好地应对AI本身发展以及相关国家可能带来的AI安全挑战。欧盟各成员国制定的《欧盟人工智能法案》(The EU AI Act)于2024年8月1日生效,这是一项具有里程碑意义的法规。这项法规为欧盟各成员国的AI发展和建设制定了统一规则。该法规基于风险级别对AI系统进行分类,设定规制办法确保AI安全、透明和可问责。国际上其他方面也在努力促进AI安全,美国国务院发布了全球AI研究议程。
成立于2024年的国际AI安全研究所网络由来自英国、美国、日本、法国、德国等国家的研究所组成。该研究所旨在评估并确保先进AI大模型的安全性,推动AI治理的国际合作。以上国家、组织及其活动反映了当前世界各国政府对解决AI带来的多方面挑战的关注和承诺,强调安全、伦理及国际合作,在利用AI造福人类的同时减轻其潜在风险。
迄今为止,各国政府介入AI的经验表明,AI的发展将对人类社会产生深远影响,涉及伦理、监管、安全、公平、公正等问题。国家治理的介入旨在确保AI的价值必须与AI技术的安全可持续发展相适应,防止技术滥用和潜在风险,确保AI的价值与人类共同价值一致,确保技术进步符合人类利益。通过包括国家治理机制在内的各种治理机制实现AI健康研发和应用,使AI服务于全体人类的整体福祉,而不是部分人的福祉,是现代国家的职责之一。而且,AI治理不仅是国家的职责,AI治理需要企业、学术界和公众的共同参与,但要发挥国家的主导作用。推动负责任的AI落地,必须坚持透明性与可问责性原则,国家需要支持建立AI系统的透明性原则,确保AI决策过程的透明性和可追溯性。通过监测AI的使用,确保公众知情权和参与权。另外,各国政府、企业和社会组织还要努力通过科普教育、透明化AI技术开发和应用,缓解公众的恐惧和误解。自2022年初以来,AI技术发展迅速,迭代发展和颠覆式发展不断出现。因此,AI的治理框架需要保持最大灵活性,在应对不断变化的环境和挑战的同时,最大限度促进技术进步、造福人类。在这个意义上,国家需及时评估和调整AI治理措施,确保治理的有效性和发展的适应性。总之,国家可以而且必须有效引导AI发展,确保其在符合伦理和社会价值的前提下,不断推动社会进步。
三、构建推动AI健康发展的体制机制
在智能体开始布局、人机交互融入社会、通用人工智能(AGI)渐露头角的背景下,国家治理角色需要从传统的“管理者”向“领航者”“协调者”“风险治理者”和“价值守护者”转型。主权国家在推动掌握技术主导权的同时,需平衡创新与风险,避免陷入“军备竞赛”陷阱。现代国家只有建立全球协作、伦理优先的治理框架,才能实现AI的可持续发展,使其真正成为推动人类福祉的力量。在这些方面,我国取得了一系列新进展,包括完善大模型安全评测国家标准,在“沙盒监管”领域开展新实践,编制试点“AI再就业计划”、试点“人机协作津贴”制度,加强“东数西算”工程中可再生能源供电数据中心比例等等。另外,还有的国家探索通过开发“液态神经网络”降低能耗。
(一)完善AI环境下的社会公平体制机制
国家可通过税收政策调节技术红利,比如,通过对AI企业征收“机器人税”用于再培训工作等,建立终身学习体系,帮助劳动者向高技能岗位转型,把AI与职业教育结合,减少结构性失业。考虑到随着机器人,尤其是具身机器人的广泛使用可能带来的劳动力替代,需要及早考虑 AI 征税问题,对 AI 驱动的自动化产生的利润征收累进税,增加财政收入,发展公益事业。国家通过公共AI平台,如智慧城市服务,降低AI使用门槛,确保全体社会成员受益。国家要解决好工作岗位流失问题,AI 驱动的自动化正在重塑就业市场,需要投资教育和技能再培训,包括帮助劳动者制定终身学习计划,专注于社会需求的技能,如编码、数据分析、AI系统管理、AI培训、元问题提出及新能源开发等。探索促进人类与 AI之间协作的政策框架,鼓励各行业采用 AI 系统来增强生产能力而不是取代人类工作。制定社会安全网计划,探索为因 AI 发展带来失业的人提供失业救济救助、全民基本收入 (UBI)、基本公共服务或工资补贴等。采取措施降低由于AI内在特点决定的资源集中造成的经济社会不平等。确保小企业、初创公司和服务不足的社区都能获得 AI 技术和培训。国家要制定政策支持去中心化的 AI 解决方案,避免少数科技巨头垄断现象。
(二)创建并运行强大的监管体制
面对AI迅速发展,国家需要创建并运行强大的监管体制机制,确保 AI 开发和部署符合社会普遍接受的价值观和行为规范。智能体不具备法律主体资格,其行为后果需由设计者、运营者或使用者承担连带责任。需要制定动态法律体系,覆盖数据隐私、算法歧视、AI侵权等,例如,我国出台的《生成式人工智能服务管理暂行办法》对虚假信息生成进行约束。由国家牵头制定安全协议,最大限度降低高风险领域的AI应用,如医疗保健、自动驾驶和军事行动等。国家必须坚持技术进步造福人类的原则,这往往是市场不容易做到的。美国《大西洋》编辑亚历克斯·戴维斯在回顾1939年的美国汽车和高速公路系统的发展情形时说,“80年后,自动驾驶技术有望实现类似止痛的效果,这是一种让驾驶汽车更合理、更安全的新方法。这是一件奇妙的事情,一项了不起的成就,是人们所能期望的最令人兴奋的技术奇迹。但作为一种工具,成功不是由它让多少人类司机离开道路来衡量,而是由改善了多少人的生活来衡量。历史是一个警示故事,但像莱万多夫斯基和硅谷人这样的群体,从未向过去屈服”。这告诉我们,技术进步的根本宗旨是为人类福祉着想。
(三)建设AI创新的安全和道德秩序
要为学术界和产业界的 AI 研究提供财政支持、补贴或税收优惠。通过公私合作伙伴关系推动,加速 AI 大模型应用场景落地。鼓励和支持开放数据集、工具和研究,实现 AI 开发的广泛社会参与,预防形成行业垄断。AI 发展已经带来而且必将引发重大经济和社会变革。AI 是一种全球现象,它的发展和应用需要各国合作应对,尤其是AI跨境带来的风险和挑战。国家要领导或参与建立AGI伦理和治理框架的全球化。同时,加强国际合作,限制AI武器化。要鼓励数据共享,支持合作开展全球AI计划,在保护隐私的同时共享数据。国家要依法对 AI 系统进行公平性审计,防止算法歧视。推动从多方面多个角度开展AI 研究,更好反映所有共同体的利益。AI 对国家安全提出了独特挑战,应该把加强网络安全摆在重要议事议程,制定策略措施防范 AI 的网络攻击,建立监控恶意使用AI的防御架构,检测和打击 AI 的滥用。应当把与 AI 相关的主题纳入公共教育,包括提高AI 素养等一揽子计划,教育社会成员了解 AI 工作原理及潜在影响。通过开展专业培训,为政策制定者、律师和伦理学家提供专门计划,帮助人们负责任地管理 AI。及时监控和监管AI市场动态,制定各种政策鼓励竞争,支持中小企业 开发 AI,使各行各业充满活力。鼓励和支持公共部门 AI 开发,在国家治理中使用 AI 提高治理效率和公共服务提供能力等。指导AI技术的可持续发展,做好能源使用监管工作,对节能的 AI 系统和数据中心采取资金或政策鼓励,倡导和推广绿色AI,资助开展环境友好型AI技术开发和创新。
(四)确保个人数据安全和AI 数据使用透明度
AI 驱动的算法比以往任何时候都有能力放大错误信息并使社会出现撕裂。国家应要求AI公司披露其算法是如何确定内容优先级和推荐内容的。支持第三方组织核实信息和打击虚假新闻。制定全社会媒体素养培训计划,帮助人们准确地接纳在线内容。为此,需要国家投资基础设施,为AI服务资源不足的地区提供高速互联网和 AI 基础设施。通过公共财政补贴使AI成为公共服务或基本公共服务,创造条件为人们使用 AI 改善医疗保健、教育和公共交通等提供便利,使公共服务更加高效和可及。通过创建公共 AI 平台,为研究人员、学生和小型企业提供开放访问的 AI 工具,促进全面创新。“最近媒体和互联网的经验展示,重要的是,造成危害和风险的政策不能出台。不能让公司权力过大,人们不能太依赖技术。”
(五)探索和明确智能体的社会角色
未来,智能体极有可能成为“社会成员”,在智能体大规模融入社会的未来图景中,人机关系的进化将远超工具的使用,逐渐演变成新的社会生态系统。需界定智能体的社会角色,通过教育普及AI知识,减少公众对技术的恐惧。未来AI治理的关键在于构建“敏捷治理”(Agile Management)体制机制,一种灵活性强和具有适应性的治理模式,通过沙盒机制(Sandboxing)测试政策效果,利用AI模拟政策影响,建立多方参与的协同网络(政府、企业、公众、国际组织),最终实现“技术向善”与“治理有效”的双重目标。
(六)反对技术霸权和倡导发展中国家的参与权
习近平总书记指出,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。各级领导干部要努力学习科技前沿知识,把握人工智能发展规律和特点,加强统筹协调,加大政策支持,形成工作合力。面对AI技术垄断(如美国主导的开源生态),需在国际框架下推动达成治理共识,反对技术霸权。同时,协调各国监管标准,避免因规则碎片化阻碍技术合作。AI全球化治理应解决好价值观差异问题,预防“算法殖民”现象。为避免技术依赖和意识形态渗透,国家要主导核心技术的自主研发。AI依赖的数据主权是国家安全的新边界,要加强AI被用于网络攻击或物理操控(如远程控制自动驾驶汽车实施破坏)防范能力,强化技术防御能力。
总之,在 AI 发展的浪潮中,国家作为监管机构、创新者、保护者和教育者发挥着十分重要的作用。在应对道德、经济和社会挑战的同时促进AI创新,需要确保人工智能的发展符合公共利益,同时为全球进步作出贡献。
四、 结论与展望
总而言之,“如何管理一个AI驱动的社会,如何构建共存与控制之间的平衡,这是一个人类从未面对过的难题。系统化滥用的可能性、复杂权力体系的掠夺性运作,都可能在无人预见的地方产生”。现代国家在AI治理中的角色不仅是推动者,更是监管者和引导者,必须确保AI技术的可持续发展与社会利益的平衡。2025年以来,“脑机接口+AI”进展,量子AI在药物分子设计中应用,区块链+AI监管,“元宇宙治理”,具身智能不断实现突破,开源生态竞争激烈。我国高度重视AI技术发展,2024年3月,我国《政府工作报告》指出:“健全数据基础制度,大力推动数据开发开放和流通使用。适度超前建设数字基础设施,加快形成全国一体化算力体系,培育算力产业生态。我们要以广泛深刻的数字变革,赋能经济发展、丰富人民生活、提升社会治理现代化水平。”未来,国家要扮演好监管机构、教育者、合作者和创新者等角色,解决好 AI 带来的社会和经济问题。通过管理AI发展、确保人们公平地获取AI资源并降低其使用风险,利用AI潜力推动经济发展和社会进步,同时最大限度地减少AI可能带来的风险。需致力于把AI作为一种工具增强人类的能力,而非取代人类,并将其作为AI发展的边界。在AI治理新时代,现代国家的角色愈发重要,它通过有效的宏观战略与落地政策,不仅能够推动AI技术的创新与应用,还能使国家在全球竞争中占据有利位置。需建立健全科技伦理制度,确保AI技术的负责任发展,需加强对AI技术监管,尤其是在算法应用方面,确保其符合社会伦理和法律标准。要制定政策鼓励公众参与AI治理的讨论,提升政策的透明度,增强社会对AI技术的信任感。在全球化背景下,需要加强国际合作,相互分享AI治理的经验和最佳实践,共同应对AI带来的挑战。仔细琢磨,AI的产生和发展的确有着不寻常的意义,“套用丘吉尔发明的一个句式:AI带给我们的不但不是人类文明的结束,而且不是结束的开始……如果你把工业革命至今这几百年都算作文明的开始,那么我们正在经历的AI革命可以说是开始的结束”。这些都告诉我们,一方面,国家要推动AI健康持续发展,建构持续健康的强大AI未来;另一方面,国家要充分利用AI技术推进国家治理体系和治理能力现代化。
来源:《国家治理研究》第3期