彭绪庶:人工智能全球性风险挑战与多维度治理体系构建

选择字号:   本文共阅读 532 次 更新时间:2025-05-25 15:55

进入专题: 人工智能   全球治理  

彭绪庶  

 

摘要:人工智能具有类人智慧性、广泛渗透性和要素替代性,其颠覆性创新既带来发展新机遇,也伴随着“科技异化”和“创造性破坏”的风险,尤其是随着弱人工智能向强人工智能不断演进,人工智能可能引发伦理失范、就业冲击和社会分化加剧等问题,并对全球应对气候变化产生影响。面对人工智能全球性的风险挑战,需要针对当前碎片化的全球治理现状,从价值取向、国家关系、治理优先级、主体能力和技术手段等多个维度健全完善治理体系,推动人工智能造福全人类。

 

引言

人工智能旨在构建能够模仿人类智能、执行类似于人类思维和决策过程的计算机系统。根据计算机系统与人类能力的对比,人工智能通常可分为计算智能、感知智能和认知智能三个层次,或将人工智能的发展分为弱人工智能、强人工智能和超级人工智能三个阶段。计算智能早已在普通的计算机领域超过人类的计算能力。在感知智能层次,虽然还存在许多问题和不足,但自动驾驶系统的蓬勃发展表明,总体上计算机系统已具备接收与分析视觉和听觉信号的能力。在一些特定领域,计算机系统甚至已经具备超过人类的能力。近年来,ChatGPT和DeepSeek等大语言模型不仅能分析和理解较为复杂的人类自然语言,还可以根据要求生成语言和动作内容,这反映出计算机系统正在实现从感知判断向推理和内容创造的巨大跨越,表明以生成式人工智能为代表的人工智能正在迎来认知智能的“技术奇点”,也被认为是开启了通用人工智能(Artificial General Intelligence,简称AGI)的序幕。

尽管无法预知完全超越人类甚至摆脱人类控制的超级人工智能何时到来,但整体能力达到接近甚至等同人类水平的强人工智能时代可能正在到来。由于传统技术普遍不具有生命和自主能力,其创新往往都是服务人类适应、利用和改造自然的目的,而发展人工智能的目的正是实现机器去做只有人才能做的智能工作。由于强人工智能具有跨领域、跨学科的全方位智能优势,一旦研发成功并广泛应用,人类社会的经济、政治等多方面都将会受到巨大冲击,强人工智能很可能凌驾于人类智能之上,产生伦理、法律和安全等方面的问题。

“人工智能会导致大面积失业甚至让人类灭绝吗?”《经济学人》的这一封面文章曾被认为是危言耸听。但比尔·盖茨和马斯克等众多业内企业家和科学家的公开信指出,“强人工智能可能代表了地球生命史上的深刻变化”,不仅将推动重建生产要素,重构生产生活方式,重塑产业组织和产业形态,也将改变人与组织、人与技术的关系。尽管人工智能对经济社会乃至人类自身发展带来的红利远大于风险挑战,但从近年人工智能发展来看,其“技术异化”和“颠覆性破坏”必将远超过历史上的技术革命,具有自主意识和行动能力的人工智能甚至可能“对社会和人类构成深远的风险”。应对人工智能快速发展,“持续努力解决道德、社会和监管挑战对于负责任和有益的大规模采用至关重要”。考虑到技术与经济社会共生的复杂性,构建包容、普惠和可持续的全球人工智能治理体系应该是当下发展人工智能的应有之义。

人工智能的技术经济特征

人工智能是一项涵盖计算机、通信、数学、统计学、心理学等多领域技术和多学科知识的综合性集成技术创新,其利用大数据结合超强算法算力,逐步将计算机系统的自动化能力和自主能力推向更高层次和更智能化的领域。不同于以往的信息技术,人工智能具有独特的技术经济特征,这正是需要强化其技术治理的重要原因。

基于自主学习的类人智慧性。拥有超大规模参数并经过海量数据预训练的人工智能不仅可以利用数据产生新知识,生成可以用于对事物进行有效预测的模型,还可以修改甚至自主设定相关规则。这种智能化决策可广泛应用于电子商务平台、自动驾驶、司法裁判、医疗和金融等领域,显著提高决策效率,减少决策时间和成本。更重要的是,人工智能展现出从数据中自主学习和不断提高性能、改进决策的能力,这种通过学习实现成长的特性,正是人类智慧的体现。人工智能虽然尚未具备完全的自我意识、自我更新、自主决策和行动能力,但这种基于自主学习的自我成长能力仍然是其他技术无法实现的。有研究甚至认为,当前人工智能发展水平正处于由弱人工智能转向强人工智能的过渡期,正在达到无需人类介入,仅依靠自身也能够自主独立完成工作任务的发展水平。

基于通用目的的广泛渗透性。与电力、汽车、电脑和互联网一样,人工智能属于通用目的技术。其不仅可以应用于生产,还可以集成于产品和服务中,甚至可以应用于组织再造。这表明人工智能用途广泛,几乎可以应用到所有行业和场景,形成广泛的渗透性,即某项技术所具备的能够与社会各个行业、生产生活各个环节相互融合并改变经济运行方式的重要特性。这种广泛渗透性不仅推动了各行业的智能化转型,还提高了生产效率和产品质量,推进了经济的发展。虽然目前人工智能所产生的影响可能还主要是局部性的,但广泛渗透性也意味着人工智能具有影响全局的潜力。

基于效率提升的要素替代性。人工智能应用的主要目的是提高效率、降低成本,即在同等产出下,使用更少的劳动和资本。人工智能可以与劳动、资本和技术等其他生产要素结合,促使不同要素之间优化协调,降低各要素生产过程中的摩擦成本,提高资源配置效率。相应地,人工智能在改变传统要素禀赋结构的同时,也对传统要素市场形成了巨大的外生冲击,突出表现为其对劳动力、资本、技术等要素领域产生的深刻影响。例如,人工智能通过在技术上提升机器自动化程度减少劳动力使用,同时提供了一种名为“智能自动化”的虚拟劳动力,其既可以作为提升生产率的工具,又可以作为一种全新的生产要素。人工智能的替代性体现在其生产要素的连续积累,以及对资本和劳动等其他要素逐步替代的过程。其应用可以同时体现为劳动节约型技术进步和资本节约型技术进步。相比于一般技术,人工智能的集约性特征更为鲜明和显著。

实现人工智能包容、普惠和可持续发展面临的挑战

人工智能作为典型的“双刃剑”,始终伴随着机遇和风险。其高通用性和广泛渗透性特征,既可赋能千行百业,影响千家万户,也可能引发经济社会各领域的系统性风险,影响范围从个体延伸到国家层面。随着人工智能技术的不断发展和逐步普及,其带来的伦理、法律、社会等问题也日益凸显。在此背景下,如何有效治理人工智能,确保其包容、普惠和可持续发展,成为全球共同面临的挑战。

人工智能发展不能排除“科技异化”和“创造性破坏”。创新具有二重性,很多技术在应用中都可能产生负面、消极甚至是否定性的影响,这种情况被称为技术异化或科技异化,即当科技的外在使用和社会效用方面产生了非预期结果,甚至背离了人的本性、基本价值和社会规范,可能使其从赋能工具转变为约束、威胁和损害人类发展的力量。例如,以蒸汽机等为代表的科技革命极大提高了物质和劳动生产率,但人类的贫富差距也在不断拉大,催生了无产阶级和资产阶级这两大对立的群体。同时,大量开采利用自然资源和能源,加剧了能源资源短缺、环境污染和生态破坏。核技术的出现开辟了新的能源利用渠道,但核武器在设计和生产之初却在一定程度上被赋予了“恶”的属性和用途。

重大技术创新还可能出现如奥地利经济学家熊彼特所提出的“创造性破坏”现象。例如,纺织机械和工厂代替了手工作坊和众多手工业,汽车和火车的普及彻底终结了马车时代,电视的出现大幅压缩了广播的市场空间,网络媒体深刻冲击了传统纸媒和电视行业的发展。历史和实践表明,创新程度越高,越容易导致“创造性破坏”,且破坏效应往往越显著。例如,当电子商务替代社区实体店时,就业替代和产业形态变革仅仅是冲击的一个侧面,社会组织、劳动关系、人际关系、传统文化、社区文化,甚至农村变迁与城市化等方面,都将因为技术创新和相应的业态创新而受到冲击。

科技发展必然产生不以人意志为转移的消极影响。人工智能追求的是对人类智能的镜像,天然具有类人化甚至替代人类的倾向性和目的性,其对人类自身发展和实践的冲击将更为深远和复杂。从近期实践来看,人工智能将是信息化历史上继计算机和互联网之后的革命性创新,其引发的智能革命或将超越电力革命和信息革命,在这一进程中,“科技异化”现象和“创造性破坏”效应几乎无法避免。

人工智能可能引发前所未有的技术伦理风险。人工智能本身可能存在的偏见改变了传统上技术的中立性,其颠覆性和普适性正在从根本上改变人与技术的关系,进而影响人与人的关系,使得人类需要审慎评估人工智能技术体系的道德属性,审视技术对人类个体和整体的影响。其一,人工智能可能引发数据滥用和权利(如隐私权)侵蚀,甚至滋生操纵风险。人工智能发展和应用都离不开大量数据支撑训练和创新迭代升级,这可能诱使某些人工智能公司或系统大规模采集甚至非法获取用户数据。例如,美国Clearview AI非法抓取超过30亿张社交媒体照片构建人脸数据库,并据此深度挖掘整理出具体个人姓名、家庭和工作地址、联系方式、社交关系网络和社交活动等信息,相关数据在被提供给美国司法部、美国联邦调查局(FBI)等多个联邦机构和沃尔玛、美国职业篮球联赛(NBA)等多个商业、金融和文化娱乐机构的同时,还遭到大规模泄露。英国公司剑桥曾违规获取美国脸书公司5000万用户数据信息干预美国选举。我国也有个别企业利用人工智能识别学生表情、坐姿和行为进行教学质量评估,引起广泛争议。更有甚者,有个别社交媒体和网络游戏利用人工智能技术使用户产生过度依赖或沉迷等问题。更值得警惕的是,当前正在快速发展的情感人工智能、社交机器人和陪伴机器人等,可能带来心理操纵的风险。例如,用户过分沉溺于通过人工智能进行互动交流和娱乐,与周围的人联系减少,可能导致人际关系疏远,产生孤独感,进而加剧心理健康问题。

其二,数据和算法偏见可能影响社会公平,甚至造成社会公共信任危机。人工智能存在数据规模不足和数据偏见等问题。例如,医学人工智能训练的X光片主要来自患者群体,数据采样或设计算法的人有意偏向收集某些数据;历史或某些特定地区的数据可能存在不公平、偏见或歧视与特定群体存在联系,如将女性名字与“home”“family”“children”联系,将男性名字与“business”“executive”“salary”“career”联系起来。同时,无论是数据的采样偏见、历史偏见、地域偏见还是标注偏见,或是算法编写者价值观、失误等导致的偏见,都可能被传递到人工智能的生成内容或选择判断上,引发人们对社会公平的担忧。例如,美国亚马逊公司用于简历筛选的人工智能程序因训练数据男性居多而歧视女性简历; Airbnb算法对黑人头像用户显示更高拒租率;社交媒体平台的推荐算法往往给用户推荐他们已经关注的用户或喜欢的内容,而不推荐其他观点或信息。

其三,人工智能自主能力提升正在颠覆人机关系,意识争议引发人机对齐疑虑。2022年6月,谷歌一位工程师因公开称人工智能“有意识、有灵魂”而遭到停职。科学界对人工智能是否具备意识仍存在争议,但人工智能的自主能力正在快速提升是毋庸置疑的。诸如自动驾驶、无人自主武器等的发展表明,无论人工智能是具备自主能力还是自主意识,我们都必须思考人工智能的权利和道德地位,尤其是社会和法律地位。例如,是否应该给予人工智能某些权利?其权利是否应该与人类的权利平等?我们如何平衡人工智能的权利和社会其他成员的权利?人工智能是否应该或如何对其行为负责?

人工智能就业替代效应可能带来就业冲击风险。人工智能正在深刻改变着人类生产生活方式,其在推动产业和经济结构改变的同时,也在深刻影响就业结构。人工智能不仅能提高传统要素的效率,也可能直接替代传统要素,包括节约和替代劳动力,给就业市场带来一定冲击风险。

一方面,人工智能具有显著的就业替代效应。人工智能能够以更低成本执行重复性高、危险性高,以及依赖简单决策或者大规模计算的工作,而类似工作此前通常是由人类完成的。研究发现,在人工智能应用初期,资本对劳动的替代效应显著,人工智能替代原本由劳动力执行的任务,导致劳动力需求减少,低附加值的劳动力份额下降,短期内造成就业总量下降,主要替代的是人工智能擅长的程序化工作和部分非程序化工作,如搬运、驾驶、影像诊断等。Gartner研究估算,2024年,客户服务领域有超过25%的工作实现了人工智能的就业替代。长期来看,随着人工智能应用范围的不断拓展,其就业替代的范围会越来越广,替代效应会越来越明显。国际货币基金组织(IMF)测算,发达经济体、新兴市场国家和低收入国家就业受人工智能影响的比例分别为60%、40%和26%,平均而言,接近40%的全球就业将面临被人工智能替代的风险。中国人民大学相关研究团队指出,中国城镇劳动力市场被人工智能技术替代的潜在比例为45%(见表1)。相似的研究也认为,因为人工智能会引发职业替代风险,中国19.05%的劳动就业都面临高替代风险。

表1 人工智能对中国各行业和总体就业替代估算结果

来源:赵忠、孙文凯、葛鹏:《人工智能等自动化偏向型技术进步对我国就业的影响》,《人大国发政策简报》,2018年第3期

另一方面,人工智能大规模应用可能催生失业风险。对一般技术而言,尽管新技术可能产生就业替代效应,但由于所有新技术也都可能同时产生就业的创造效应和补偿效应,因此,新技术的净就业效应未必会导致失业。由于人工智能发展初衷就是模拟人类智能,其在大幅提升资本和劳动效率之时,产生就业替代效应也比此前任何技术进步的影响都要显著。与此同时,人工智能的快速发展将引发职业技能与市场需求之间的错配问题。随着技术迭代速度不断加快,技能过时成为普遍现象,许多现有职位所需的技能正面临被新兴技术淘汰的风险,教育与培训机构更难以跟上人工智能创新步伐,导致培养的人才难以满足市场需求。因此,如果人工智能技术快速普及,而就业制度缺乏灵活性,可能引发较大失业风险。例如,自动驾驶迅速普及可能导致公共交通行业不能适应新岗位需求的司机和管理人员失业。世界经济论坛预测,未来五年内,全球劳动力市场将出现23%的结构性岗位流失和44%的工人技能面临重构,虽然有6900万个新工作岗位诞生,但淘汰的岗位数量高达8300万个,导致岗位绝对数量下降约1400万个,约占全球总就业总量的2%。还有研究认为,由于人工智能的影响和冲击,47%的美国劳动者或将面临失业。

此外,人工智能推动就业结构走向“两极化”。随着人工智能技术的不断进步,劳动力市场正经历结构性变化,呈现“两极化”趋势,即高技能认知工作与低技能手工工作的就业机会持续增加,而中等技能的常规性工作岗位则面临减少的压力。这种分化源于编程、数据分析、企业管理复杂决策和科学研究等高技能工作,需要创造性思维和深厚的专业知识,这些都是人工智能难以完全替代的领域。而如清洁、美容美发和餐饮服务等低技能工作,由于其劳动强度高且自动化成本过高,因此仍然需要人工执行。然而,中等技能工作,尤其是流程化和标准化的任务,如某些制造业作业、文书工作等,很容易被人工智能和机器人技术取代。就业结构的“两极化”趋势不仅会影响劳动者的就业选择,也对现行教育体系提出了严峻挑战。

人工智能引发的“智能鸿沟”存在加剧两极分化风险。互联网兴起之初,人们就意识到对互联网等信息技术工具掌握和应用的差距将导致在不同群体和不同产业,以及不同国家和地区之间形成数字鸿沟。人工智能具有机器、技术及软件的本质属性,其应用对于新进入者和新用户等群体必然存在一定技术认知、资源获取、创新能力和使用成本等方面的门槛或壁垒,不同群体、企业和行业,甚至不同国家地区之间,由于对人工智能存在认知和信息差异,以及技术创新和技术应用等方面存在差异,同样会导致发展机会、收入、社会权利等呈现两极分化现象。“智能鸿沟”实际上是“数字鸿沟”在人工智能时代的新体现和新形态。

国家分化可能形成智能科技霸权,加剧南北差距。从技术发展来看,人工智能研发需要大量科技人才、巨额资本和海量数据,这使得大国尤其是发达国家相比于发展中国家和小国,不仅拥有人才、技术和资金优势,还拥有众多掌控核心资源和巨大影响力的跨国人工智能企业,从而更易于形成技术先发优势。与此同时,发达国家和跨国公司通过垄断芯片、算法、模型和操作系统等人工智能核心技术,控制关键数据、产业生态和标准制定权,导致其与发展中国家之间形成巨大技术鸿沟和基础设施差距,不仅让发达国家跨国人工智能巨头获取巨额收益,还可能将发展中国家绑定在数据资源和应用市场供给者的地位,遏制甚至是扼杀其创新能力,进而将发展中国家锁定在产业链低端。例如,欧美企业掌控80%的非洲互联网流量,并将其数据用于训练大模型,非洲却无法获得任何收益。多数国家缺乏自主开发主权人工智能的能力与人工智能治理的话语权,在接受欧美人工智能技术的同时,不仅被迫接受其输出的价值观和文化乃至“西方文明优越论”,更面临西方社交媒体算法操纵选举和社会政治运动的风险。此外,发展中国家在国防、金融等关键领域高度依赖外国人工智能系统,智能科技霸权可能成为推行强权的重要工具。例如,拉美国家采用人工智能风控模型制定经济政策,可能导致国家重要决策权受制于外部资本,暗含巨大的国家经济安全风险。近年来,美国等发达国家联合少数盟友,通过掌控高端GPU供应链和人工智能专利等手段,肆意打压围堵中国等发展中国家的人工智能研发与应用,其目的显然是维持自身的人工智能技术先发优势,迫使其他国家形成对美国的技术依附,并通过掌握先进人工智能技术对他国发展产生重要影响,这是一种典型的智能科技霸权和数字殖民主义行径。

从技术应用来看,与发展中国家相比,发达国家不仅拥有先进的宽带网络、高性能计算设备、人工智能云服务、智能算力集群等新型基础设施,还有更便捷和更低成本接入人工智能技术的机会,同时,这些国家为劳动力提供的人工智能教育和培训条件也更优越,使其更易获益于人工智能技术的发展,这种差异可能导致两类国家之间发展差距不断扩大。

企业分化可能形成超级企业,弱化中小企业能力。首先,人工智能正在重塑产业组织,技术垄断和效率的提升助推超大型企业的形成。人工智能的应用有利于大企业对生产流程进行基于数据驱动的智能化重构,通过优化资源配置和供应链产业链管理,进行更精准的营销和更有效率的研发,从而推动企业做大做强。例如,大型医药企业可以利用人工智能分析影像和病例等海量数据,利用先进的人工智能算法进行药物分子筛选,进而提高药物研发效率和降低研发成本,提升企业竞争力。沃尔玛等大型连锁超市通过整合销售和多源数据,能够精准优化采购策略和库存管理,进行针对性营销和定价。从管理的角度来看,传统上认为当企业组织规模过大或涉及业务领域过于广泛时,往往会面临管理协调效率下降的难题,然而,人工智能技术在企业管理中的应用能使企业运营更加透明和精细化,人工智能工具可以有效替代传统中层管理的监督和协调职能,缩短决策链条并降低管理成本,使组织更加趋于扁平化和透明化。这种技术变革优势和全方位的效率提升,正推动各行各业涌现出越来越多突破传统规模限制的“巨无霸”企业。其次,人工智能将重构商业竞争格局,大企业“赢者通吃”,压缩中小企业的发展空间。与国家间的分化类似,无论是在技术研发,还是数据、资本等资源获取,乃至技术应用、产业生态建设、标准制定和市场开拓等方面,大企业尤其是跨国公司相较于中小企业都具有更大的优势和便利条件。人工智能的发展必然推动资本和市场向技术密集型,尤其是向人工智能技术密集型企业集中,形成人工智能驱动的新型平台企业,这将进一步削弱传统企业和中小企业的劳动力优势。例如,微软、谷歌、亚马逊等5家企业占据全球人工智能软件市场份额的70%以上,OpenAI占据全球大模型访问流量的20%以上。同时,超级企业还可能通过人工智能建立生态垄断,形成对中小企业的强大控制力。以亚马逊为例,其平台聚集了全球约950万中小企业卖家,这种超大规模的供应链管理在传统商业模式下是无法想象的。通过人工智能算法,亚马逊能够自动比对商品价格,一旦商品价格超过平台限价或类似商品价格,则商品无法上架出售。此外,中小企业还经常“被迫”参与平台企业发起的节庆营销活动,缺乏经营自主权,而亚马逊拥有包括云和平台在内的完整生态系统,可以通过人工智能算法控制商品流量,并将其以“流量加速包”的产品形式卖给中小企业。在这种模式下,中小企业失去了产品定价权和营销权,只能靠低价而不是靠产品创新来拼销量。最后,人工智能推动权力格局重构,技术驱动的超级企业获得了隐形超级权力。人工智能离不开网络、算力和数据,在不同产业、企业、部门,甚至个体之间形成了天然的连接关系。例如,在澳大利亚等西方国家,公共交通运行数据全部接入谷歌地图,谷歌控制的移动生态垄断了超过70%的市场份额。人工智能驱动的超级企业正在演变为控制经济社会运行的中枢。在一些较小的国家,这些掌控经济社会运行数据的超级大企业,正利用人工智能技术和生态优势成为地缘政治的科技代理人。

个体分化扩大收入离散程度,可能加剧不平等。一是人工智能可能影响个体收入分配。人工智能技术在引发劳动岗位加速更迭的同时,由于对不同技术部门的生产率提升存在显著差异,可能导致适应人工智能需求的高技术部门与落后部门的收入差距持续扩大。处于产业智能化发展期和上升期的产业,更容易享受到岗位替代效应与生产率效应带来的红利,从而获得更多发展机会和更高收入。此外,掌握人工智能相关知识与技能的劳动者,相比其他缺乏相关训练和基本素养的群体,能更好利用人工智能工具提高工作效率,适应由人工智能引起的就业结构和产业变化,捕获由此产生的新机遇。因此,这种差异将导致不同群体间,如青年群体和老年群体,城市劳动者和乡村劳动者,在发展机会方面形成比代际鸿沟、城乡鸿沟、教育鸿沟等传统差距更为深刻的“智能鸿沟”。相应地,如果缺乏制度层面的干预和对弱势群体的扶持,这种技术应用能力的差异将不可避免地加剧收入两极分化。二是人工智能技术可能降低劳动收入份额。有国外学者研究认为,自动化技术进步会降低劳动的收入份额,其中对重工业部门劳动力的影响最为严重。人工智能虽然能提升人均GDP和工资水平,但由于其资本偏向性的特点,其通过用资本替代劳动,将减少劳动收入份额,进一步扩大了资本和劳动要素收入差距。近年来,西方很多人工智能企业的收入分配实践表明,人工智能技术确实提升了企业生产率并节约了成本,进而增加了这些企业的利润和市场竞争力。然而,这些利润往往优先分配给企业的高层管理者和拥有相关技术所有权的人,而那些在基层岗位的普通员工往往难以公平分享技术发展带来的红利。三是人工智能可能导致中等收入阶层规模压缩。由于高技能劳动通常需要复杂的判断力和创造力,难以被自动化取代,反而因智能技术应用范围的扩大而需求增加。相比之下,自动化往往导致标准化和重复性的低技能工作减少,这些工作的劳动者可能会因此失业或被迫接受低收入的工作。因此,尽管人工智能对中低技能劳动力的收入影响更大,在拉大高低收入群体差距的同时,也扩大了社会收入的离散程度,与此同时,人工智能导致的职业岗位替代效应,还可能意味着较高收入的工作和较低收入的工作都在增加,而传统的中等收入岗位减少,导致中产阶级规模缩减。四是人工智能加剧全球收入分配不平等。在影响收入分配及其不平等程度的影响因素中,技术是其中之一。根据内生增长理论,任何技术进步都可以提高人均收入水平,也会增加收入水平的离散度。同样,人工智能不仅可以提高收入水平均值,同样也会增加收入水平方差。2009~2019年对50个国家的调研数据显示,人工智能投资较高的国家往往存在较严重智能鸿沟现象,相应地,这些国家收入不平等的程度也呈现加剧趋势。本文基于对2019年55个国家人工智能专利申请数量与基尼系数的初步研究分析发现,专利申请数量大的国家通常基尼系数也相对较高,间接证实专利指标衡量的智能技术投资和技术鸿沟与收入不平等之间存在显著相关性,一个重要原因就是人工智能使得劳动者技能加速分化,并通过职业岗位替代效应等进一步加剧了社会收入不平等程度。

人工智能引发“能源竞赛”,加大全球应对气候变化的挑战。虽然人工智能发展有利于完善生产过程控制和提高生产自动化水平,可以极大提高生产中的资源能源利用效率,也可以为污染物和温室气体排放动态精准检测和防控管理提供低成本高效率的技术工具,还可以赋能绿色技术创新,进而促进污染物和碳减排,然而,也不应忽视,至少在短期内,在局部地区,人工智能可能加剧能源供应紧张,甚至加剧温室气体和污染物排放,加大全球应对气候变化的挑战。

人工智能具有能源密集型特征。“大算力+大数据”的高强度训练是当前生成式人工智能研发必不可少的条件,这一过程依赖高性能GPU/TPU集群,需要消耗大量电力。斯坦福人工智能研究所发布的《2023年人工智能指数报告》指出,ChatGPT-3单次训练电耗约为128.7万度,二氧化碳排放量约为552吨,大约相当于120个美国家庭年用电,3000辆特斯拉汽车分别行驶20万英里,或者纽约至旧金山飞机往返550次的碳排放量。同时,人工智能应用过程中需要数据中心大算力支持,而数据中心散热需要额外电力消耗。同样以ChatGPT-3为例,按照每天2亿次用户请求响应计算,其电耗约为50万度,相当于1.7万个美国家庭日用电量,约排放温室气体210吨。ChatGPT-4训练电耗更高达ChatGPT-3的40倍,日常运行电耗显然更高。国际能源署《人工智能与能源》研究报告显示,GPT-4训练了14周,每日电耗约为发达经济体2.85万个家庭或者发展中经济体7.05万个家庭的日用电量。数据中心是支撑人工智能发展的重要基础设施。容量100兆瓦的超大规模数据中心年消耗电力大约相当于10万户家庭电耗。国际能源署发布报告显示,2024年全球数据中心就消耗了1.5%左右的全球电力。预计2026年,全球数据中心能源消耗超过1000太瓦时,约相当于日本的用电量。预计到2030年,全球数据中心的电力需求将增加一倍以上,达到约945太瓦时,相当于全球总用电量的近3%。若将人工智能发展需要的芯片和数据中心设备生产等环节的能耗考虑在内,其总体能耗显然更为惊人。

人工智能竞赛正演变为能源竞赛。“AI的尽头是电力”,媒体的戏谑之语形象地反映了电力在人工智能发展中的关键作用。随着人工智能快速发展,电力需求呈指数级增长。根据新摩尔定律,2024到2025年,人工智能的任务处理能力每4个月翻一倍;而在2019到2025年,翻倍周期为7个月,而电力供应年均增速不足2%。人工智能数据中心正在成为一些地区电力消耗的主体和能源紧张的主要原因。例如,爱尔兰数据中心电耗约占全国的21%;美国最大的数据中心集群每年用去弗吉尼亚州总用电量的26%。全球人工智能竞赛正在演变为新的能源竞赛。2025年4月8日,特朗普政府签署行政命令,提出为保持美国的人工智能领先优势,解除新建煤炭项目禁令,放弃控制燃煤电厂空气污染限制,凸显了人工智能发展对全球应对气候治理的重大挑战。

包容、普惠和可持续发展的全球人工智能治理体系构建路径与策略

近年来,中国制定了《生成式人工智能服务管理暂行办法》,发布了《全球人工智能治理倡议》和《人工智能全球治理上海宣言》,其他经济体和联合国等国际组织也已发布了多项相关倡议或治理方案。总体上,当前人工智能治理仍呈现少数国家行动、国际组织倡议、企业被动合规的局面,各国仍处于有治理需求共识,无治理方案共识的局面。现有的治理框架多集中于单一领域或局部问题,未能形成跨领域、跨区域的全球治理体系,各方在治理原则目标、方法手段和优先级等问题上仍然存在较大分歧,全球治理仍陷入碎片化困境,亟需针对人工智能面向全人类全球性的突出问题,强化合作协调,构建更加包容、普惠和可持续的全球治理体系。

坚持以人为本,推动发展负责任的安全人工智能。科技应该是发展利器而非发展威胁。然而,当前人工智能发展不仅未能平等惠及所有人,甚至还可能解构人的主体性构成和冲击人类的传统价值体系。因此,必须坚持“以人为本”,推动“智能向善”,确保人工智能始终为全人类造福。首先,营造智能向善的价值取向和发展共识。以全人类现有的价值取向和伦理规范为标准,为人工智能确立合乎人性和人类基本价值共识的发展目标;树立“以人为本”的伦理基石,将“向善”作为发展人工智能的基本价值原则。例如,尊重人际公平正义,致力于减少不平等,尊重个体自由发展和生命安全,避免算法歧视与权利侵害,防范和打击人工智能技术的恶用滥用,慎重发展和使用军事人工智能。其次,强化人工智能企业的责任担当。人工智能企业应是落实“智能向善”的第一责任主体,应制定“向善”的道德守则和“作恶”的惩罚制度规范企业行为,尤其是为人工智能系统开发确立合乎人性的发展目标,重视价值对齐;维护公平竞争,确保领先企业不滥用技术优势和市场优势。最后,建立人工智能伦理审查和监管机制。各国大型人工智能企业和大学等都应建立独立的人工智能伦理审查机构,制定相应的人工智能伦理审查和监管制度,确保人工智能在“以人为本”和“向善”的轨道上发展。

坚持多边多元,构建平等参与协同合作的治理新机制。人工智能发展日益呈现跨国家跨领域的新趋势。在人工智能发展进程中,所有参与主体都应平等共享发展机遇,共同应对风险挑战,也只有不同主体均能平等参与、公平竞争、携手合作,才能实现人工智能的包容、普惠和可持续发展。首先,要充分尊重各国人工智能主权。既要支持人工智能系统的通用性,也要支持各国拥有和发展与其语言、历史、文化、习惯、价值观和道德规范等相一致的主权人工智能,以及拥有与人工智能主权相关联的数据和生成内容的所有权。同时,既要抵制“智能殖民主义”,反对某些国家利用人工智能技术优势等实行“科技霸权”,影响、干涉和胁迫他国人工智能发展路径,也要反对人工智能系统被他国用于威胁国家安全的行为。其次,推动缩小国家间的“智能鸿沟”。维护全球人工智能创新链、供应链、产业链开放,支持和推动落实全球人工智能技术开源共享,支持发展中国家发展主权人工智能,促进其在经济、民生和治理等领域的应用创新。同时,提升发展中国家在国际人工智能治理体系中的代表权和发言权,保障各国人工智能发展和治理的机会平等。最后,加强人工智能国际对话交流和治理合作。发挥联合国等多边合作国际组织在人工智能国际治理中的作用,支持在联合国框架和多边国际合作框架下成立国际人工智能治理机构。同时,支持以《全球人工智能治理倡议》等为参考蓝本,搭建全球人工智能治理合作平台,研究制定具有全球共识的治理框架、标准规范、伦理指南和技术路线,加强人工智能供应链、跨境数据供应链和知识产权等重大问题和重要领域上的国际合作。

坚持安全至上,构建系统治理框架推动发展可信人工智能。无论人工智能的冲击是否可能造成社会秩序“海啸”,考虑到技术与经济社会共生的复杂性,任何国家都不应忽略问题的严肃性。人工智能技术快速迭代,风险形式复杂多变,必须改变碎片化管理模式,统筹发展和安全,系统构建人工智能治理体系,完善系统管理框架,推动安全可信人工智能的发展。这也是我国《新一代人工智能伦理规范》和现有多数人工智能多边倡议的核心原则。首先,构建风险系统治理框架。各国根据国情出台人工智能专项立法,明确人工智能的法律主体地位,坚持对人工智能涉主体性应用进行合法性审查,强化对人工智能滥用的法律约束。加快健全完善法律、法规、政策、规范协同治理工具箱,根据各国国情建立健全监管机构和风险监管机制。其次,实施风险分类分级监管模式。对人工智能可能的风险进行分类分级,明确风险评估的基本原则与方法,规划制定风险事件响应机制和应对措施,形成人工智能风险管理规范。对企业人工智能活动中一般风险或低风险活动实施自愿行为准则,包括自主实施风险管理和自愿实施风险报告,对高风险活动则实施强制行为准则。再次,完善全生命周期风险系统管理。建立覆盖从人工智能系统设计、研发、预训练、评估、注册、应用及监测评估等各环节,涵盖从数据、算法、模型、技术文件到日志记录和评估监测等核心要素清单的全部内容,最大范围和限度保障人工智能系统在全生命周期的准确性、鲁棒性、透明性和可追溯性。最后,探索实施人工智能监管沙盒。在高风险人工智能系统如人形机器人、无人自动驾驶等全面进入市场前,可以研究监管沙盒模式设计和实施人工智能监管沙盒,选择合适地区合适时间和行业领域,在相对受控的环境下,用尽可能真实的环境测试和验证人工智能系统的安全性和未知风险。

坚持能力为基,加强包容和普惠能力建设推动弥合“智能鸿沟”。技术发展水平与社会运用技术能力进步之间的匹配程度,直接影响社会是走向“繁荣”还是陷入“痛苦”。因此,构建包容、普惠和可持续发展的人工智能治理体系的关键是提高易受影响和冲击的弱势企业、行业和群体的智能技术应用能力,弥合“智能鸿沟”。首先,加强智能基础设施建设。各国都应加强宽带互联网和人工智能算力网络建设,扩大人工智能的可及性和可用性,降低偏远地区、中小企业和弱势群体应用人工智能的技术门槛,保障应用人工智能促进发展的机会平等。其次,加强人才培养和交流合作。鼓励人工智能人才交流合作,支持通过类似中国设立的南南合作与发展学院等形式,加强对发展中国家和欠发达地区、传统行业人工智能人才的培养。同时,各国应加强免费数字资源供给,鼓励和引导教育机构和大型人工智能企业等承担社会责任,向社区和重点群体提供优质免费人工智能教育资源,传递科学的人工智能知识。再次,加大对重点人群和重点行业的支持力度。针对易受人工智能冲击影响人群,如出租车司机、设计人员,以及易受深度造假、网络诈骗和社交媒体人群,如青少年、农村居民和传统行业从业人员等,加强针对性的人工智能知识普及和技能培训,提高其利用人工智能防范网络谣言的信息辨识能力、保护个人数据和隐私的数字安全能力,以及对网络游戏、短视频和社交媒体的防沉迷能力。对公共交通、物流运输和农业等可能受人工智能冲击较大的行业,加强转型支持。最后,加强对人工智能创业的支持。应加大对再就业人员及大学生等群体人工智能技能培训力度,提高再就业人员和新兴职业群体的人工智能创新创业能力。鼓励和支持人工智能创业,对利用人工智能创业的新业态新模式实施包容审慎监管。

坚持技术赋能,筑牢包容普惠可持续发展保障。技术发展引发的风险和问题,根本上仍需通过技术手段来预防和解决,制度和政策仅能主要发挥引导、激励、监督、规范和规制等作用。第一,加强应用安全技术体系建设。在支持人工智能关键核心技术和基础技术研发的同时,加大对人工智能安全领域的研发投入,各国都应围绕内容审查、应用监管、风险研判、智能防御等关键领域建立人工智能治理技术体系,加快形成人工智能治理技术与基础技术协同发展格局。第二,加快发展模型监测监管技术。一方面,要从算法模型结构、算法源头数据集等源头开始建立预防算法歧视、保障算法透明度和可解释性的法律与管理体制机制。另一方面,要采用技术手段加强算法推荐、生物识别等涉及个人隐私保护问题相关技术的合理利用,以及加强对算法偏见、算法风险的识别和精准监管。在此基础上,各国可根据国情考虑是否对重点人工智能系统算法建立备案、审查和算法问责制度。第三,开展人工智能伦理、风险和安全压力测试。借助人工智能国际交流合作,可研究制定人工智能“红队”系列标准规范,建立经过认证的第三方人工智能安全实验室,或由各国根据国情建立“红队”实施机构,开展大型人工智能系统的自愿和强制伦理、风险和安全等压力测试,开展算法影响第三方评估,强化风险预防。最后,加强人工智能发展的综合技术节能。在国际层面,各国应支持先进人工智能芯片的自由贸易,提高智算中心和智能云服务的能源利用效率。在国家层面,各国应明确数据中心能源利用效率目标,科学布局一体化数据中心建设,充分利用自然地理条件和气候资源降低数据中心能耗。同时,支持数据中心利用清洁能源及先进直接液冷技术,降低电耗和水耗,推动人工智能领域绿色低碳发展。

 

彭绪庶,中国社会科学院信息化研究中心主任,研究员,中国社会科学院大学商学院教授,博导。研究方向为数字技术创新、数字经济和科技创新政策。主要著作有《人工智能的文明挑战与应对》(合著)、《中国智能经济发展报告(2024~2025)》(合著)、《中美人工智能创新比较研究——国家创新能力理论视角的分析》(论文)等。

来源:《学术前沿》杂志2025年第9期(注释从略)

    进入专题: 人工智能   全球治理  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 国际关系 > 国际组织与合作
本文链接:https://www.aisixiang.com/data/163007.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。

评论(0)

Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统