作者:季卫东,上海交通大学凯原法学院暨中国法与社会研究院教授、博士生导师,教育部“长江学者奖励计划”特聘教授。
来源:《求索》2026年第1期,转自“求索杂志”公众号。
摘要:在各国于2025年向科技加速主义转向的背景下,以伦理为本位的人工智能治理正面临着复杂困境。中国倡议的以AI安全系统实现AI社会安全的技术性方案,实际上构成了对该困境的一个突破口。倘若技术方案再与正当程序原则相结合,借助人机对话就会产生实质性价值以及社会的、伦理的、法律的效应,并把不同政策立场之间的对抗式博弈转化为合作式博弈。通过安全与伦理二分法以及风险沟通和论证性对话的机制设计,有可能在兼顾技术理性和人文精神的基础上进行伦理规范体系和国际秩序的创新。在这个意义上,“技术—程序”本位的人工智能治理可被视为一种新范式,并以此作为全球治理体制的基石。
关键词:科技加速主义;人工智能治理;伦理本位;“技术—程序”本位;国际新秩序
一、引言
2016年3月,AlphaGo以4:1的压倒性优势战胜围棋九段职业棋手李世石。以此为标志,意味着人工智能时代正以不可阻挡之势加速到来,预言中的奇点似乎已经近在咫尺。于是,大多数国家以及国际组织都开始制定规范性文件,试图对新兴科技进行管控,至少力争在人工智能的研发与社会风险的防范之间保持某种适当的平衡。但这里首先碰到的问题是:究竟怎样才能找到最佳平衡点?一般而言,科技企业往往更强调人工智能研发,立法者往往更强调人工智能的安全可控,政府则希望通过基于裁量权的敏捷治理来兼顾这两个方面,立场莫衷一是。与此相应,不同国家的政策偏好也大相径庭,欧盟强调市民社会安全至上,美国强调科技企业研发优先,中国强调有为政府临机应变。要达成平衡乃至共识并非易事。鉴于人工智能飞速迭代、应用场景日趋广泛的现实,人工智能治理势必成为需要人类社会整体合作的关键任务,但各国以及国内各部门的立场不统一会妨碍这种合作。因此,全球人工智能治理首先必须面对的是如何协调不同规范群的问题,也就是整合力问题。
另外,通过各国的代议机构、业界平台以及国际组织,特别是联合国及其分支机构,可以了解到关于人工智能发展与安全的不同声音,以及关于政策、伦理、技术标准的各种规范性文件,但其大多数都缺乏充分的法律效力和机制保障。因此,全球人工智能治理还必须面对如何贯彻实施不同规范群的问题,也就是执行力问题。当前,联合国还没有专门负责人工智能治理的国际机构。鉴于人工智能的迅速发展势头,及其对人类社会巨大而深刻的影响,也许我们需要一个类似原子能国际机构那样的专业化组织来负责应对与人工智能相关的风险和挑战,制定各种具体的国际规则和标准,并监督其实施。根据笔者的理解,这正是中国政府倡议成立世界人工智能合作组织的宗旨所在。
人工智能治理无论是加强整合力还是执行力,都有必要在国内外探索社会的最大公约数,为规范的形成和实施凝聚广泛共识。但是,人工智能既具有极其强大的赋能效应、可以大幅度提高经济效益和社会福祉,同时也有可能给人类带来空前的风险、不可逆的影响、危害以及连锁反应。何况,国与国、阶层与阶层之间仍存在数字鸿沟,而人工智能治理又必须以主权为依托和屏障,要达成比较广泛的共识难度较大。如何化解此种困境,能否先易后难,通过技术的、程序的方式逐步建构人工智能的社会合作和国际合作的基本框架,是从理论和实践层面需认真思考、探讨的重大课题。
二、各国人工智能政策在向加速主义看齐
2025年,世界人工智能治理进入了历史性转折点。在人工智能研发与安全的关系方面,很多国家的立场大约从这个时点开始变得更加简单明确:这就是为人工智能进行大幅度松绑,政策取向更倾向于科技研发,而不是社会的伦理和安全。例如,美国众议院通过《HR1法案》,在未来10年内禁止各州及地方政府监管AI模型、系统或自动化决策工具。中华人民共和国全国人民代表大会常务委员会2025年立法工作计划和国务院2025年立法工作计划均未明确列举制定人工智能法的事项,仅作了方向性表述。日本和韩国都通过了促进人工智能相关技术研发及应用的法律。甚至连一直强调安全高于研发原则的欧盟委员会,也面临推迟那个作为硬法典型的《人工智能法》生效的压力,欧盟多个成员国行政首脑同时呼吁设立“暂停倒计时机制”。显而易见,各国人工智能政策的钟摆正转向研发高于安全的端点。同年7月23日颁布的《美国人工智能行动计划》特别强调的第一个关键性命题就是“加速创新”。由此可见,类似反机械化卢德运动(Luddites Movement)那样的对人工智能进行严格规制乃至暂停大模型研发的倡议已经偃旗息鼓,而加速主义(Accelerationism)则以技术与资本为双轮正在席卷全球。
“加速主义”这个专有名词,最早出自美国科幻新潮作家罗杰·泽拉兹尼在1967年发表的长篇小说《光明王》,其中关于神人垄断技术、凡人无法转世的隐喻也已映射到现实政治之中。当然,更直接的思想渊源是吉尔·德勒兹与费利克斯·加塔利在1972年出版的合著《反俄狄浦斯》中的名句“尽量加速过程”以及相关的后现代理论。在一定程度上可以说,加速主义的渊源还可以追溯到马克思的推动社会进步的“生产力”概念、尼采的加快历史进程的“超人”概念和权力意志理论、20世纪初勃兴的那个分为左右两翼的未来主义运动以及海德格尔、福柯们对“主体性个人终结”的宣告。从20世纪90年代中期开始,加速主义就已经成为一种当代哲学重要理论学派的称谓。尼克·兰德及其弟子们在2007年与甘丹·梅亚苏合作召开的“思辨实在论”工作坊使加速主义有了更宽广而深刻的哲学基础。如果说现代性的核心概念是人本主义,那么这种双轨并进的21世纪思潮的本质则是“后人本主义”甚至“反人本主义”。正如基因重组工程等使“后人本主义”在一定程度上获得科技支持那样,互联网、大数据、云计算则为加速主义奠定了客观基础,并使这种思潮与尤瓦尔·赫拉利的“神人”对“无用阶级”的叙事框架遥相呼应。特别是基于数字和智能技术的AI加速主义,曾经一度以英国华威大学的控制论文化研究单位(Cybernetic Culture Research Unit,CCRU)为牙城,认为技术进步与资本主义发展构成一个互相促进的螺旋,这种不可逆的强化过程最终将导向超越人类的奇点,同时也助长对既有伦理和制度的批判理性。上述西方加速主义的立场后来又衍生出被称为“中华未来主义(Sinofuturism)”的技术哲学主张。但是,被称作“加速主义之父”的尼克·兰德的立场最终却从强调平等正义的左翼跳跃到了强调自由至上的右翼。
2013年,左翼科技加速主义的旗手尼克·斯尼克斯和阿列克斯·威廉姆斯在“批判法学思考”平台上共同发表了《一种加速主义政治的宣言》,批判资本主义对科技的压抑作用,并试图通过科技加速来促进既有结构的瓦解、实现把人类从劳动中解放出来的理想,从而使技术服务于社会变革和新秩序的探索。这也是在践行尼克·兰德倡导的以“超信(hyperstition)”预言自我实现的方式改变现实的构想。与此形成对照,尼克·兰德本人立场右转之后,通过博客在2012年发表的文章《黑暗启蒙》,其实也是一种右翼激进派的科技加速主义政治宣言,成为美国软件工程师柯蒂斯·雅文发起、由硅谷幕后操盘手彼得·蒂尔推波助澜的新反动主义运动(NRx Movement,又称“黑暗启蒙运动”)的纲领。这种标榜“黑暗启蒙思潮”也被称为新保守主义,主张社会应该由集权的官僚机构和硅谷的技术精英来管理,为此有必要支持特朗普竞选、推动政治的专制化改造以及对社会进行监控的算法支配。值得注意的是,“黑暗启蒙运动”的推动者把少数科技精英的专制统治与占大多数的民粹主义MAGA势力进行无中介的链接,结果形成了一种高度不确定的复杂化政治格局。但无论如何,加速主义最核心的主张还是科技立国、产业立国,旨在促进人工智能等新兴科技的高速增长,建设效率至上、王者通吃、竞争趋零的数字国家,甚至认为只有资本的自我增殖及其与科技的融合才能给人类带来纯粹的自由或者自由至上的境界。正如我们所看到的那样,在21世纪10年代初期勃兴的那种科技加速主义,终于到2025年从不同程度上影响了各国人工智能法的制度设计以及实施举措,成为世界政治主流的重要组成部分。
以这种科技威权主义大趋势为背景重新审视人工智能治理,可以意识到关于科技发展与风险防范两难的所谓“科林格里奇困境”不仅依然存在,而且还势必进一步凸显出来,并且需要在全球人工智能治理合作的层面进行考量。实际上,无论何种加速主义,都是以技术与资本之间的互动关系为内核;加速的对象是技术,但加速的驱动装置归根结底其实还是资本扩张的逻辑。然而,如果试图超越资本主义框架,或者防止科技横行无忌,那么就势必要更加强调数字主权、人本主义、技术多元性以及技术与社会之间更加多元而复杂的构图,重新审视人类共同生活的空间结构及其秩序原理。为此,在对科技加速主义进行反思之际,我们同时也需要对人工智能治理的方式,特别是中国的倡议和经验进行再认识和再定位。
三、迄今为止人工智能治理的伦理本位
不言而喻,科技加速主义的正当化根据当然是人工智能等新兴科技可以大幅度提高效率、实现创新、为人类带来便利和福祉。但是,飞速迭代的人工智能在带来各种收益的同时,也会带来风险、不安乃至对人类社会的危害。一般而言,除了普通人对自动化引起失业的忧虑之外,数字鸿沟还势必导致阶层间、国家间差距扩大,甚至造成极少数技术精英与绝大多数“赛博朋克”两极分化的格局。数字主权或AI主权则很容易导致各国人工智能政策和法律的差异化,给人工智能治理的国际合作造成障碍。另外,从2022年底开始,大语言模型和多模态大模型层出不穷。AI大模型因为功能泛化而容易产生虚假信息,这个问题随着合成数据的占比提高而变得更加严重。在法律界,AI大模型造成虚假信息的影响更为致命,甚至可能动摇社会的信赖关系以及话语秩序的正当性。对大数据的机器学习也会捕获人类的弱点、固化社会偏见,引发多种伦理问题。大模型时代的人机共同进化状态使大数据中固有的黑箱性将在生成式人工智能中进一步强化,很可能会出现某种人类无法理解的智能,甚至可能造成人工智能失控的局面。特别是武器的大规模自动化,恐成为人类安全最严重的风险或者现实威胁。上述问题若预防不及时,在危害显露后恐将演化为难以控制的“科林格里奇困境”,同时也构成了对加速主义的严峻挑战。
鉴于强有力科技所导致的严重后果早期难预断、晚期难挽救的特征,正如大卫·科林格里奇本人也曾经主张的那样,人工智能监管不得不采取动态的、有弹性的方式。这就从2004年起在欧洲引发了关于机器人伦理学的研究热,其中产生了这样一些基本命题:(1)应该为机器人设立伦理标准,包括AI自身道德能力的评价标准和在多种伦理规范发生冲突时进行价值排序和选择的道德原则;(2)机器人的自由度越大,相应的AI伦理标准也就应该越严格。2016年4月,七国集团(G7)提倡《关于AI研发的八项原则》,即透明性原则、支援用户原则、可控性原则、确保系统安全原则、保护社会安全原则、保护隐私原则、伦理原则、可问责原则,可谓机器人伦理学进入政治议程和社会实践的肇始。2017年1月,一批有影响力的人工智能和机器人专家聚集在美国加州,通过了《阿西洛马人工智能原则》。
大约从2019年起,国际社会开始集中形成伦理本位的人工智能治理机制。例如,2019年3月,日本通过了《以人为中心的人工智能社会原则》;2019年4月,欧盟委员会发布了《人工智能伦理准则》;2019年5月,经济合作与发展组织(OECD)通过了人工智能的政府间政策指导方针,侧重公正、安全、可信等基本伦理价值;2019年6月,二十国集团峰会发布的《G20人工智能原则》也强调伦理和社会责任;2019年11月,澳大利亚政府颁布了《人工智能伦理原则》;2021年11月,联合国教科文组织在经过3年多酝酿和谈判的基础上发布了《人工智能伦理问题建议书》。从这些原则性规范文本中可以找到国际社会对人工智能研发的基本共识,例如通过技术的中立性、透明性实现计算机系统输入和输出的检验可能性,要求就演算结果及其安全性对用户和利益攸关者履行说明义务,从而达到数据合规、算法公正的伦理目标;通过结构性价值确保人类对人工智能的可控性,并为系统的停止、网络的切断和修理预先做好充分的准备;为人工智能系统设定的价值优先顺位为生命、身体、财产,首先要保护人的安全,等等。实际上,OpenAI提倡的人机对齐标准基本上也属于伦理本位的范畴;德国哲学家马库斯·加布里尔针对科技加速主义以及数字时代的“温柔独裁国家”开出的哲学处方笺是所谓“伦理资本主义”以及致力于可持续发展的“伦理企业”,试图用新实在论来克服相对主义的各种流弊,通过伦理道德对世界进行重构来化解价值危机。在这里,加布里尔的“新实在论”与尼克·兰德的“思辨实在论”形成鲜明的对比,一个强调泛道德主义的约束,另一个强调科技进化的加速,立场截然相反。
在与加布里尔相类似的以人为本、抑制科技“裸奔”思想的延长线上,中国的《新一代人工智能伦理规范》于2021年9月25日由国家新一代人工智能治理专业委员会发布,旨在将伦理道德融入人工智能的整个生命周期。其中对人工智能治理的框架设计提出了6项基本的伦理要求,即增进人类福祉、促进公平公正、保护隐私安全、确保可信可控、强化责任担当、提升伦理素养。严格来看,这里的第4、5项基本伦理要求其实是程序性监管的目标。在这样的前提下,还进一步规定了关于人工智能研发、应用、管理的18项具体伦理要求,包括管理规范中的敏捷治理、积极实践示范、正确行权用权、加强风险防范、促进包容开放;研发规范中的强化自律意识、提升数据质量、增强安全透明、避免偏见歧视;供应规范中的尊重市场规则、加强质量管控、保障用户权益、强化应急保障;使用规范中的提倡善意使用、避免误用滥用、禁止违规恶用、及时主动反馈、提高使用能力。仔细斟酌便可发现,这些具体的伦理要求大都属于程序性治理的范畴。不言而喻,这是一个多维复合型的规范体系,为情境思维、关系平衡以及裁量决断留下了充分的弹性空间,特别需要采取分层分类监管的机制设计。
伦理本位的人工智能治理固然具有伸缩自如的优势,但究竟什么是机器的伦理、什么是人工智能向善,实际上很难清楚界定。何况在价值上始终存在所谓“诸神之争”,不同的伦理原则都有独善论特征,不易达成共识或妥协。唯其如此,也有学者提倡把“软伦理”作为人工智能治理的主要伦理框架。另外,从全球人工智能治理合作的角度来看,不同文明都有自己的基本价值体系,究竟以哪一种作为人机对齐的标准势必存在争议。仅从技术操作层面来看,人工智能系统的本质无论理解为表达符号的逻辑推理还是理解为在脑神经网络中对关系性知识的学习,都需要理由论证;而我们很难把伦理概念嵌入合理的根据之中。这就注定了伦理本位人工智能治理的局限性和具体操作上的困难。为此,有必要通过以主权和国家理性作为担保的法律制度来弥补伦理的不足。
正是基于上述逻辑,在《新一代人工智能伦理规范》颁布同时,我国还于2021年实施了“清朗·算法滥用治理”专项行动,于2022年实施了“清朗·算法综合治理”专项行动,以法律手段严厉惩治了“大数据杀熟”“二选一平台垄断”等违规现象,“清朗”也成为了一种系列专项行动惯例。2022年3月1日,为了落实《互联网信息服务算法推荐管理规定》的要求,“互联网信息服务算法备案系统”正式上线运行,对人工智能的监管形成了算法备案、算法检查、算法问责“三位一体”的基本框架。2022年12月颁布的《互联网信息服务深度合成管理规定》开始对生成式AI进行规范。2023年7月13日,7部门联合发布全球首个生成式AI法规《生成式人工智能服务管理暂行办法》。该办法重视产业发展与生成式AI治理之间的平衡,规定了AIGC标注义务以及迅即处理违法内容的虚假信息对策,设立了用户投诉和通报制度。上述这些现象显示了中国人工智能治理硬性的一面,但就规范内容而言则仍然属于伦理本位的范畴。
如前所述,在过去10年间,关于数据伦理和人工智能伦理及其贯彻举措,世界各国已经制定了大量的规范性文件,既有国家政策和法律、行业协议,也有国际性宣言、决议乃至公约;在法律领域,还存在硬法、软法、软硬兼施法等不同模式。虽然关于基本原则也存在某些国际共识,但各国的利益、立场、制度设计以及价值观相去甚远,甚至存在尖锐的对立,最终难以形成整合的人工智能治理框架。因此,如何梳理这些规范群并使之协调,就构成全球善治的一项重要目标。联合国及其相关国际机构是重要的开放性、多元性平台,有必要通过该平台来寻求人工智能治理的最大公约数。2024年,联合国作出了3个与人工智能相关的重要决议。第一个是3月21日通过的《关于人工智能安全和可信赖的决议》(由美国主提,对伦理与安全进行区分),第二个是7月1日通过的《加强人工智能能力建设国际合作决议》(由中国主提,把技术普及和互惠共享作为重点),第三个是9月22日通过的旨在构建合作共识的《未来契约》以及作为附件的《全球数字契约》。落实联合国在2024年通过的这3个决议,需要形成能够真正凝聚国际共识的人工智能系统标准和人工智能治理合作框架。但是,其前景却不容乐观。例如,2024年9月5日欧洲委员会通过的全球第一个关于人工智能的国际条约《人工智能、人权、民主与法治框架公约》,就以价值观不同为理由没有邀请中国和新加坡参加签署程序。2025年2月10—11日召开的人工智能行动巴黎峰会上,欧美国家内部也产生了尖锐的意见对立,英美两国拒绝签署联合声明。这也昭示了伦理本位的人工智能治理很难达成全球合作的共识。
鉴于上述形势,在2025年7月26日世界人工智能大会暨人工智能全球治理高级别会议(WAIC2025)召开之际,中国政府倡议成立世界人工智能合作组织(WAICO),总部设在上海,试图通过协同共治确保智能向善,加强相关国际规范的整合力和执行力。该组织被定位为技术普惠平台,并试图以此为杠杆跨越数字鸿沟,在全球南方国家开展人工智能能力建设,协调全球技术标准以及实施安全评估流程。在这里,我们其实也可以发现人工智能治理思路转换的重要契机:对伦理与安全进行必要的区分,更侧重对人工智能安全风险的系统性应对以及对人类共同福祉的深谋远虑。事实上,这项通过技术性方法解决现实问题的倡议在联合国大会获得185票赞成而通过,已经形成一个全球最大公约数。
四、作为替代范式的“技术—程序”本位
把技术理性嵌入人工智能治理框架,通过更强有力的技术手段系统应对人工智能的安全风险,这种思路俨然更符合加速主义流行的国际语境,当然也势必更注重人工智能自我监控能力的提升。在这方面,已经存在一些较好的先例和实践经验。譬如,新加坡在2022年研发成功的全球首个人工智能治理开源测试工具箱“AI. Verify”,把测试和过程检查融合在一起,通过安全、灵活、透明化、可审计、可问责、互相制衡的程序达到可信AI的目标;到2023年成立了负责运营的基金会,蚂蚁集团旗下的安全科技公司ZOLOZ也作为中国代表参与其中。又如,IBM在2023年12月推出的企业层面人工智能治理模型“WatsonX. Governance”,把风险防控与自动化的监管工具开发密切结合在一起,整合全球的规范资源,可以按照人工智能法规、政策以及技术标准提供AI的“营养标签”,根据模型元数据实现主动检测和减少偏差的LLM指标,及时发现风险点和安全漏洞。此外,还有加强AI自监督学习能力的图像世界模型(Image World Model,IWM),虽然主要是增强图像变换的预测能力和下游任务的泛化能力,但与要求保护数据安全和提升算法透明度的人工智能治理也有异曲同工之妙。
事实上,在2024年3月,根据北京智源人工智能研究院的倡议,以杰弗里·辛顿、姚期智为首的30多位海内外技术专家和企业领袖在中国签署了《北京AI安全国际共识》,为人工智能研发划出了几条明确的红线,并试图以这些原则为基础形成国际合作机制。值得重视的是,该共识呼吁各国政府和企业把AI研发预算的1/3投入到安全保障领域。须知,欧洲科技企业曾经提出反对欧盟人工智能法案的一条主要理由,就是该法案的实施将导致17%的AI研发预算消耗在安全监控上,现在《北京AI安全国际共识》把这个比率再提高到33%,其实施难度可想而知。这种倡议实际上构成或者暗示了一个关于人工智能国际治理的技术性方案,即试图以安全的AI来实现AI的安全,通过系统化的技术手段以及把技术标准嵌入人工智能运行机制来达到有效控制科技风险的基本目标。从中国主提、联合国大会通过的《加强人工智能能力建设国际合作决议》所强调的弥合数字鸿沟、共享科技赋能、平等受益AI的务实举措中,也可以发现同样的宗旨。2024年9月中国发布的《人工智能安全治理框架》1.0版(2025年9月发布2.0版),强调风险识别、技术应对、综合治理、安全指引,则使前述宗旨更加明确化和体系化。尽管存在人文主义的质疑,但试图以技术性方案来替代伦理本位的这种中国方案,的确能够在相当程度上避免风险沟通因独善性或暧昧性而滑向无序化的陷阱,因此不妨将其理解为人工智能治理的一种可供选择的新范式。
在AI加速主义背景下,这样的思路具有更强的现实可行性,对于跳出“科林格里奇困境”达成国内外合作的共识也具有更深远的意义。其底层逻辑是,如果大模型的技术研发不仅是人工智能治理的对象,也可以反过来为人工智能治理赋能,使AI系统和整个社会都变得更安全,那么前沿科技企业就不会对人工智能立法感到忧心忡忡,安全与发展就不再是一种零和游戏。在某种意义上还可以认为,这样的人工智能治理将为科技研发开拓出新的投资机遇或者市场空间,并通过错位竞争为企业形成一片广阔的科技蓝海。从这个角度来看,只有在大语言模型和多模态大模型的性能提升与安全度提升形成某种正比关系之际,只有在监管转变为技术本位以及程序本位之际,各国以及全球才有可能真正进入所谓“人工智能治理的立法时刻”。
当然,技术本位终究还是无法回避人文精神和道义的挑战,甚至还会遭遇把伦理封装到无法观察、难以解释的代码之中的指责。那么,技术本位与伦理本位之间,究竟能否找到某种衔接点或媒介机制呢?众所周知,在难以就实质性价值达成共识的地方,往往首先应该就程序性安排达成共识;然后再通过合理而公正的程序要件,通过论证性的对话和沟通,一环扣一环地逐步解决争议、形成合意,最终再就实质性价值达成共识或大家都可接受的妥协方案。而人工智能基于神经网络进行机器学习的逻辑以及跨越系统和平台进行互操性的实践需要设计一种规则体系以便同时满足交互过程中策略性、沟通性、规范性的条件,这种规则系统只能以程序为本位。在这个意义上,技术本位与纯粹程序主义的方法以及法律上的程序正义是完全相洽的。更重要的是,正当程序的本质在于互动过程的标准化、社会关系的公平化,必将超越单纯的技术性方法。可想而知,正是通过公正而合理的验证程序、操作程序和法律程序,以及通过程序之中的对话、沟通、交涉,技术本位的人工智能治理才有可能保障伦理观,进而通过人机对话创造出一种新型价值观和关系性秩序原理,并且有可能形成某种把技术理性与人文精神密切结合在一起的伦理规范体系。因此,人工智能治理的新范式应该更准确地表述为通过“技术—程序”本位来实现人机目标对齐,从而实现人类所追求的实质性价值,而并非简单地以技术本位替代伦理本位。
关于通过技术与程序相结合来实现伦理和社会正义的可能性,谷歌旗下Deepmind的几个研究者曾经进行过实验,并于2023年初在《美国国家科学院院刊》(PNAS)发表论文,探讨了“如何将人类价值观融入人工智能系统”的问题。文中引入了约翰·罗尔斯在1970年代提出的思想实验“无知之幕”,即为一个社会选择正义原则时,只有当人们并不知道自己在这个社会中的特殊地位时才能达成适当的共识。这些研究者的实验结果证明,“无知之幕”这种纯粹程序主义思路也适合于人机价值对齐,因为当AI助理知道甲乙丙丁在社会资源分配中所处的地位差异时,其决策倾向于效率;当这些差异被遮蔽时,其选择倾向于公平。实际上,从一般的意义上来说,复杂而流动的状态势必导致制度设计的重点从结构转向过程,使这种过程标准化、合规化的就是正当程序的要件。总之,为了防止大平台和大模型的滥用,也为了制衡数字主权以及各种私人化算法权力(包括AI助理的权力),有必要在人工智能系统中嵌入公正程序而不是为具身智能植入“伦理芯片”,从而在不同人工智能系统之间形成某种互相对抗、制衡以及协调的机制。因此,在技术指向的人工智能治理中,现代科学和法治的验证程序和正当程序的原则应该被重新定义,并让合理而公平的程序作为伦理、社会规范以及法律制度的“生成模型”而发挥更加重要的作用。就此而言,技术性和法律性的正当程序其实就是一种通过论证性对话形成规范并使人工智能的决策具有充分可解释性的基本框架。
上述“无知之幕”实验和研究启示我们:在大模型时代,应该从人机共存和对话角度来理解人工智能治理,把对可信AI的追求建立在对等而充分的对话和沟通过程之上。对于用户而言,正是通过以提示词为语境的沟通,才能识别事物之间的适当关系,并通过思维链理解交互的意义,而这种识别和理解又是互相纠缠的。为了终结无休止的语言游戏,需要某种经得起实证检验的价值集合或作为过程集合的论证或使强制正当化的程序。在这个方面特别值得留意的是中国研究者的思考和研究成果。远期人工智能研究中心、中国科学院自动化研究所人工智能伦理与治理研究中心、中国科学院哲学研究所的联合研究团队于2024年2月26日在Nature出版社旗下人文社科类期刊上发表了一篇论文,题目是“理解可解释人工智能的困境:仪式对话框架的建议”。作者们试图从人机交互视角来把握和解释用户对人工智能的“社会信任”,注重关于沟通的机制设计。与功能性解释不同,这项研究成果认为对人工智能的社会信任受到用户与AI模型创造者之间对话的影响,因此可解释人工智能(XAI)取得用户信任的关键是建立一个仪式性对话框架(RDF),这是一项技术性安排。仪式性对话框架的重要性在于,不论解释性质如何,沟通都应当是目的论的,甚至可以发挥类似信念动力学那样的作用。仪式性对话框架着眼于人工智能模型开发的社会环境,强调人工智能系统的可信度通常建立在社会对技术、权威以及共享经历的集体评估之上。因而仪式性对话框架不仅是一种沟通策略,而且标志着一种独特的“仪式”或者说正当程序要件,作为理解与信任之间的中介,帮助建构用户与可解释人工智能及其制造者之间的信任关系。在2024年发表的关于通过沟通和交涉达成共识的“哈贝马斯机(Habermas Machine,HM)”实验以及AI非公开调解(caucus mediation)机制的论文中,也可以发现具有类似的思想。
与人机对话和沟通机制的技术性安排相关,伦敦大学城市圣乔治学院等机构的研究团队于2025年5月14日在《科学进展》上发表的一项关于“命名游戏”实验的研究成果进一步证实,人工智能系统之间的交互也会产生某种自发的趋同现象,在没有中央协调的情况下通过从众效应形成统一的“社会规范”;但是,只要有仅占10%的人工智能体坚持不懈地进行不同内容的干预,则会在某个临界点上改变公共选择的结果,导致社会规范的创新。这意味着有可能对伦理的要求采取纯粹技术主义的和纯粹程序主义的表达方式。另外,作为人工智能工具和行业开放标准的模型上下文协议(Model Context Protocol,MCP)以及网络协议(Agent Network Protocol,ANP)也会进一步促进人工智能系统之间的交互,通过提供多网内容、加强互操作性以及程序耦合等技术手段,以增进数字空间的关系性原理(神经表征)和网络效应。在某种意义上也可以说,MCP、ANP等构成人工智能时代自生秩序的基础设施,也不妨被理解为在不同系统之间形成联系、加强协调、进行干预的那种“走廊式制度”的重要抓手。
综上所述,中国提倡的防范人工智能风险的技术性方案或者说“技术—程序”本位的人工智能治理思路,安全与伦理的二分法思维方式、主权框架以及包括所谓GAN(Generative Adversarial Network,生成式抗衡网络)在内的程序公正等制度中介,在相当程度上绕开了就实质性价值问题难以达成共识的困境。与此同时,借助“合作、开放、包容、开源”的原则和准则尽量把人文精神注入科技行为以及自动化操作之中,从而实现“有限度的智能向善”或“有限伦理”。从人工智能治理的整体方向性来看,就是从伦理性、实质性的“价值对齐”,转向技术性和程序性的“目标对齐”,确保人工智能系统的安全,而把难以进行技术处理的那些对人文精神的坚守和捍卫,以及社会伦理体系的创新等主观价值问题都留给人类自己去负责。
五、中美人工智能行动计划的比较分析
从表面上来看,中国方案与美国的做法之间或多或少存在某些类似之处,或者说两国在竞争中也往往可能会互相取长补短。实际上,美国的人工智能政策始终具有科技加速主义和实用主义的特征,最大限度鼓励企业创新,表现在人工智能治理方面就是采取规范多元主义的立场和扩大弹性空间的方式。就整体而言,美国尽管也强调人工智能的安全、可信以及排除意识形态偏见,但却并不旗帜鲜明地坚持伦理本位。例如,2021年1月正式颁布的美国《国家人工智能倡议法》旨在巩固美国的领先地位,通过统筹协调的举措加速人工智能的研发和应用、促进经济繁荣和国家安全、审视AI治理的路径、平衡个体权利与科技创新之间的关系,属于典型的“软伦理—软法模式”,与欧盟的“硬伦理—硬法模式”形成强烈对比。2022年10月白宫科技政策办公室发布的《AI权利法案蓝图》、2023年1月美国国家标准和技术研究机构发布的《AI风险管理框架》等,也都只是原则和政策的宣示,不具有任何法律约束力。拜登政府在2023年7月与人工智能领域的7家头部企业达成关于AI研发和应用的安全自愿承诺、10月颁布《安全、可靠、可信地开发和使用人工智能行政令》(已经被特朗普撤销并由在2025年1月发布的更鼓励科技创新的人工智能行政令所取代)同样都不具有任何法律约束力。
当然,由于美国在立法和监管上的分散主义特征,各州立法以及议员的立法提案也呈现出很大差异。例如,2024年3月犹他州州长签署的《人工智能政策法》,在规定行政和民事罚款作为制裁措施的同时,为AI创新提供监管缓解的技术豁免权,但其他州的人工智能法案也有更侧重数据的隐私保护、算法的可解释性、防止AI歧视以及保护消费者权益等内容。尽管联邦国会已经通过的法案侧重促进数字产业发展、确保美国在科技上的领先地位。但是,参议员伊薇特·克拉克等提出的《2019年算法问责法案》及其2022年、2023年的更新版本却呈现出明显的硬法化倾向;众议院能源和商业委员会在2023年7月通过的《人工智能问责法案》还给政府施压,希望在2025年之后采取实质性问责措施来防范AI风险。类似的还有美国加利福尼亚州的《SB1047法案》(Safe and Secure Innovation for Frontier Artificial Intelligence Models Act),一度引起全球对美国人工智能政策大幅度调整、转向硬法模式的关注。但是,这个法案最终在2024年9月29日被州长加文·纽森否决,证明科技加速主义的势头仍然存在。至2025年5月22日,美国众议院还以微弱优势通过《HR1法案》,在未来10年内禁止各州及地方政府监管AI模型、系统或自动化决策工具,试图在人工智能政策上实现全国的步调统一。
2025年7月23日,白宫发布了《美国人工智能行动计划》(Winning the Race:America’s AI ActionPlan),并准备将其中所有政策都在未来半年到一年之内付诸实施,显示出为重塑全球局势而进行政策布局的迫切性。这个计划开宗明义指出,“美国正处于一场争夺人工智能全球主导地位的竞赛中。谁拥有最大的人工智能生态系统,谁就能制定全球人工智能标准,并获得广泛的经济和军事利益”。这里凸显了4个关键词,即主导地位、生态系统、全球标准、获得利益。其基本愿景是通过抬高门槛和成本的生态系统来赢得人工智能竞赛,推动工业革命、信息革命以及文艺复兴,使美国进入新的“黄金时代”。为了实现这样的目标,《美国人工智能行动计划》树立了三大支柱。第一支柱是“加速AI创新”,显而易见,科技加速主义如影随形。计划要求“消除繁文缛节和苛刻监管”“推动AI应用”“支持下一代制造业”“推进AI科学研究”,特别是侧重新材料的发现和实验、工艺创新的自动化,构建世界级科学数据集。与此同时,还要确保前沿AI符合美国价值观、保护言论自由以及构建AI评估生态系统和监管沙盒,并在美国工业界建立一种动态的“先试后用”的人工智能文化。第二支柱是“建设美国AI基础设施”,包括与科技加速主义相匹配的电网和新能源产业、半导体和芯片制造及其供应链、安全的数据中心和网络、熟练的技术劳动力以及政府危机管理能力。第三支柱是“在AI外交和国际安全中发挥领导作用”,其中最重要的是通过出口管制和国家安全风险评估等方式“在国际治理机构中对抗中国影响力”,毫不遮掩其零和博弈的思维方式。
仅仅3天后,在上海召开的世界人工智能大会暨人工智能全球治理高级别会议于2025年7月26日发表了《人工智能全球治理行动计划》,与《美国人工智能行动计划》形成鲜明对比。中国行动计划首先指出:“人工智能是人类发展的新领域,是新一轮科技革命和产业革命的重要驱动力量,也可以是造福人类的国际公共产品。”在这里,国际公共产品的表述引人瞩目,直指美国所强调的单极主导地位或本国利益优先。从人工智能治理的角度来看,中国的行动计划的立场阐述如下:“智能时代,唯有同球共济,我们才能在充分发挥人工智能潜力的同时,确保其发展的安全性、可靠性、可控性和公平性,最终落实联合国《未来契约》及其附件《全球数字契约》有关承诺,为所有人创造包容、开放、可持续、公平、安全和可靠的数字和智能未来。”不言而喻,这是希望形成一种跨越意识形态藩篱、以通力合作来有效防控人工智能风险的全球体制以及相应的国际新秩序。关于人工智能研发,中国行动计划所揭示的目标和原则是“向善为民、尊重主权、发展导向、安全可控、公平普惠、开放合作”,为此还特别强调在主权平等的前提下,采取切实行动贯彻合作创新与普惠共享的精神,“降低和消除技术壁垒”,“共同探索推进人工智能全面赋能实体经济”,“打造跨国开源社区和安全、可靠开源平台”——这是一种有利于参与竞争的低门槛、低成本的生态系统,“促进标准及规范共识”等等。如果说中国方案也存在三大支柱,那就是坚持数字主权、通过共赢实现跨国合作、把人工智能视为公共产品而不是一国专利。换言之,中国所理解的人工智能生态系统不是单极主义的金字塔型价值等级结构,而是基于多边主义的互联网式主权平等的场域,并且呈现出科技多样性的愿景。
有必要指出,无论是中国的《人工智能全球治理行动计划》,还是《美国人工智能行动计划》,实际上都没有拘泥于伦理本位的人工智能治理思路。尽管美国行动计划提到了维护“美国价值观”或者借助价值同盟赢得竞赛,但在放松监管以赢得竞争的整体框架下,人工智能的风险防范主要通过“投资于人工智能的可解释性、控制力和稳健性突破”“构建人工智能评估生态系统”“建立人工智能和自主系统虚拟试验场”“招募美国学术界最优秀的人才来测试人工智能系统的透明度、有效性、使用控制和安全漏洞”“促进弹性且安全的人工智能开发和部署”等具体的政策举措来实现。显而易见,这也是一种“技术—程序”本位的方案。中国行动计划当然一如既往地坚持固有的技术性、程序性方案,注重应用场景和应用生态,以便在更加多元包容、更加具备互操作性的状态下通过沟通和互惠来凝聚国际共识,建构起一个崭新的人工智能全球治理体制。“维护个人隐私和数据安全”、“消除歧视和偏见”、保全“人类文明的多样性”和“伦理”以及“平衡技术进步、风险防范与社会伦理”等价值目标,也是通过“关键领域技术标准制修订”、“建立科学、透明、包容的规范框架”、“建立人工智能风险测试评估体系”、“探索人工智能服务可追溯管理制度”、“在联合国框架下建立国际人工智能科学小组和全球人工智能治理对话两项机制”、“共建安全测试互认平台”、促进“技术和政策沟通”等切实可行的举措来实现。
由此可见,尽管意识形态的取向不同,国家的利益各不相同,但在人工智能治理上,中美两国有进行合作的可能性。如果坚持伦理本位的人工智能治理方式,互相对立的价值观相持不下,那就很难形成共识与合作;反之,如果采取“技术—程序”本位的人工智能治理方式,先不预设价值前提,那就很有可能在科技风险防范和系统安全上找到某种衔接点和渐次扩大的互助空间,进而通过理性对话和沟通逐步化解意识形态的障碍,至少实现有限伦理意义上的合作。也就是说,通过安全与伦理的二分法思维方式、主权框架以及程序公正等制度中介、普遍承认的嵌入式技术标准、系统和网络之间的制衡机制,中美两国的人工智能行动计划有可能从对抗式博弈转化为合作式博弈,从而为世界人工智能合作奠定最广泛的基础。可以说,关于人工智能治理的中国方案的生命力也正是在这里得以充分呈现出来。
六、结语
自从ChatGPT于2022年底横空出世,在大约3年的时间里生成式人工智能飞速迭代,展示了前所未有的对话能力(例如GPT4o)和泛化能力(例如Sora)。如果说内燃机车+电气技术为人类带来了“生活的自由”,互联网+数字通信技术为人类带来了“信息的自由”,那么也许大模型+脑机接口技术将为人类带来“创新(无中生有)的自由”。大语言模型和多模态大模型,已经显示了改变社会、改变专业服务行业、改变日常生活风景的巨大影响力和发展的机遇。在这个意义上,我们正处于社会大转型的前夜,充满了期待,但同时也充满了不安。因此,人工智能治理已经成为全球必须面对的问题,尤其需要加强不同国家、不同文明之间的合作。然而,人工智能的不均衡发展将会让国家之间的不信任日益增长,进而导致数字主权的上升,出现技术脱钩;国家之间的意识形态差异或道德原则差异可能会对管理人工智能和信息技术产生更广泛的地缘政治影响;因此确保AI在国际层面的价值一致性,在人工智能治理方面加强国际合作,可能是本世纪最重大的挑战之一。
另一方面,人类对语言的处理、对智能的驾驭大部分是在无意识的状态下进行的。因此,科学哲学家迈克尔·波兰尼在1964年曾经指出:“我们知道的比我们能表述的更多。”这一命题被表述为“波兰尼悖论”,并成为人工智能理论的基础。这也意味着人工智能在对无意识的语言以及默会知识进行处理方面的先天不足,根本就无法设计那种获得和应用所有语言的算法,也很难为机器学习设定明确的训练目标。现在通行的利用神经网络的机器学习,通过误差反向传播算法不断调整神经元权重和更新网络参数,逐渐减少误差,寻找训练数据的正解。这个试错过程的本质是单词或计算结果的接龙式预测,通往概率的世界,而不是意义的世界。因为意义不可能产生于对概率的计算,生成式人工智能不可能自动产生出人文精神。由此可见,基于价值一致性的、伦理本位的人工智能治理非常艰难。
近些年来人们发现,当神经网络的规模被大幅度扩张之后,人工智能接龙预测的精确度就会突然得到显著改善。这个发现及其有意识的应用使机器学习进入了深度学习阶段:无需复杂的规则和学习方法,只要让网络规模倍增就可以使许多难题迎刃而解,迅速提高泛化能力——不言而喻,这种神奇效果也证明了大语言模型的重要意义,其实质是多层网络的自我学习和进入语境(in-context)的学习,以及在此基础上实现学习方法的学习——元学习。这样一来,人类对机器学习的特征设计也就变得没有意义,人工智能实际上是开始进行自我塑造,形成一种自动化的生态系统,甚至有可能脱离人类的控制。概率世界的无意义与自动演化的无控制,特别是这两者相叠加,使生成式人工智能的伦理问题和治理困境空前凸显出来。但是,这也意味着大语言模型将为一种非人类或超人类的新型智能助产,甚至有可能渐行渐远并产生与人类截然不同的价值指向。反过来这也启示我们,能不能通过更容易达成共识的技术性、程序性方案来确保人工智能系统的安全和人类社会的安全,进而通过公正程序条件下的人与人的风险沟通以及人与机器的论证性对话创造出一种新型价值观和关系秩序,形成某种把技术理性与人文精神密切结合在一起的崭新伦理规范体系。这正是科技加速主义背景下进一步凸显出来的中国方案之理念及其重塑国际秩序的深远意义:通过“技术—程序”本位的人工智能治理范式来达成跨阶层、跨国界、跨文明的基本共识,进而由人类树立起互惠共享的人工智能全球合作体制。