高奇琦:GPT技术的全球治理方案:一个技术多边主义的框架

选择字号:   本文共阅读 6959 次 更新时间:2023-05-20 22:06

进入专题: 全球治理   技术多边主义   ChatGPT  

高奇琦  

 

内容提要:GPT技术所产生的巨大负外部性迫切需要一个全球治理框架加以应对。失业、失序、失控是GPT强负外部性的主要体现。为了使GPT技术的发展符合人类社会的整体利益,需要对其进行相应限制,并使其在一定的规则之中运行。鉴于GPT技术对人类发展的潜在负面影响,OpenAI需要承担起相应的社会责任,美国政府应该更早地介入OpenAI开发GPT新产品的过程,而不是放任其毫无约束地发展下去。技术多边主义可以为GPT技术提供一种新的治理框架,要求其在国家治理和全球治理的互动逻辑下展开。

关键词:GPT技术 全球治理 技术多边主义 ChatGPT

 

近年来,生成式预训练转换器(Generative Pre-trained Transformer,GPT)技术的影响不断扩大,进而引发国际社会关于GPT技术如何应用的争论。例如,2023年4月,包括埃隆·马斯克(Elon Musk)在内的关注人工智能领域的企业家、学者与技术人员发起了一封公开信,呼吁暂停比GPT-4更强大的系统。目前该请愿已有上万人签名。另外,一些国家(如意大利)已经宣布限制GPT技术的使用。总之,目前亟需一个全球治理框架对GPT技术发展可能产生的全球性影响进行全面评估。

为何GPT技术需要全球治理?

目前关于GPT技术的讨论更多集中在其可能产生的应用变革等方面,而从全球治理角度讨论的成果还比较少。笔者认为,GPT技术需要在全球治理的框架下进行审视,主要原因如下。

第一,GPT技术产生的外部性使得世界各国都卷入其中。作为一种新型生产力,GPT技术对人类社会产生了重大影响。以GPT技术对世界分工的影响为例,传统的世界性分工体现为发达国家提供先进技术,而发展中国家提供廉价的劳动力和商品销售市场。然而,在新的GPT技术框架之下,世界性分工可能会被重塑。GPT技术的本质是人工智能,其目的是对传统劳动力进行替代。在GPT相关技术的辅助之下,传统意义上由印度等地区来完成的软件外包等工作无疑都能够由机器直接完成。换言之,在传统的世界分工体系中,发展中国家处于不利位置,如其廉价的劳动力仅能换来非常微薄的收入,甚至其卷入世界分工体系这一结果也只是世界交往产生的一种副作用。在思考大工业发达国家和非工业性质国家之间的矛盾这一问题时,马克思和恩格斯曾认为,“一切历史冲突都根源于生产力和交往形式之间的矛盾”。在新的GPT技术之下,原来由发展中国家廉价劳动力完成的工作可能会完全被机器所取代。因此,这种技术变迁虽然在发达国家内部完成,但是其影响已经溢出发达国家的边界,对世界经济体系产生巨大冲击。GPT技术产生的各类效应会使发展中国家处于更加弱势的地位。发展中国家原本就长期面临一系列发展问题,再加上劳动条件的丧失,会使其陷入更加脆弱的状态。GPT技术所产生的外部性,使得该技术的使用不能仅仅被看成是技术应用问题,而是应该被看作一种新型全球性问题。

第二,GPT技术应用带来的生产力竞速可能导致治理规则准备不足。因为GPT技术是一种新型生产力,而掌握这一新型生产力就会使得生产力水平极大提高,所以各国都不希望在这些先进生产力的研发和应用方面落后。各国在面对新生产力工具时,往往都会采取加速策略,最终会导向集体“竞速”的结果。那些在竞争中失败的国家会在新一轮产业变革中处于较为弱势的地位,因此任何一方都不希望竞速失败。在这种集体加速的背景下,各国可能都会为GPT技术的落地应用准备极为优厚的条件,并鼓励这些技术的应用。那些采用了新技术的地方政府,也会将自己标榜为新技术的积极拥抱者。这种集体加速很有可能会导致人类社会整体对新技术带来的负面影响的思考与准备不足。但凡对新技术的应用提出批评意见的人,可能都会被归入技术保守主义的行列。而这种集体竞速最终可能会导致人类社会在整体上缺乏对该技术破坏性效应的全面认识以及相关规则制定的准备。因此,有学者呼吁应当为智能技术注入人文主义的内涵,并设定一个与人类共处的边界,使其能够遵守人类的习俗、道德、规范和法律。

第三,应用非均衡性可能会加剧国家间冲突。由于各国对待GPT技术的态度不同,可能会出现加速主义与减速主义的争论。例如,美国是典型的加速主义国家,其在GPT相关技术的应用方面采取自由主义策略,甚至会为整个技术的应用落地以及大规模的应用提供条件。然而,一些规则观念较强的国家和地区,则可能会出现对GPT技术的激烈批评。意大利便是这类国家的代表,而意大利的态度在一定程度上也反映了整个欧洲的态度。这类国家往往强调要对大模型相关技术进行限制。然而,减速主义不可避免地会导致当地大模型技术在相关应用中处于相对落后的状态,而由此又会激发当地的众多争论。要协调这些争论就需要引入全球治理的框架,使人类在大模型技术发展过程中持有相对一致的立场。目前GPT的发展似乎已经让人们看到了通用人工智能在未来突破的可能性。而通用人工智能的发展,一方面可能带来巨大的科技进步和生产力的提高,另一方面也可能产生极为严重的颠覆性后果。而要有效地应对这一问题,就需要使整个人类社会的行动尽可能统一起来,这样才能够对人工智能技术形成相对有效制约。针对大模型技术的应用和发展,如果一部分国家采取规制态度,而另一部分国家主张自由放任,人类社会就可能产生巨大冲突,并导致整体性政策失败。

GPT的强负外部性:对技术加速主义的批评

针对GPT等大模型技术的发展,“技术剥离论”认为,需要将技术进步与社会影响剥离,即那些对人工智能技术的推动者只需要考虑技术进步和技术发展,而不需要考虑这些技术的社会影响。然而,“技术剥离论”持有的是一种不完整的世界观,因为技术本身是与社会紧密联系在一起的。就GPT技术而言,其具有较强的负外部性,主要体现在如下三个方面。

一是失业。在工业社会之前,人类个体大多数是自我雇佣。而在工业大生产的条件下,才形成了数量巨大的、为工业化准备的劳动力。在工业化发展过程中,会不断出现结构性失业。例如,汽车的出现逐渐使马车夫这一岗位的工作受到影响。卡尔·弗雷(Carl Frey)等人在2017年曾针对700余种职业做过一次预测,其结果显示在未来的20年内,美国接近一半的劳动者所从事的职业将有极高概率被替代。在结构性失业的影响之下,受影响的人通过技能再培训往往就能够获得新工作岗位。然而,GPT技术产生的失业效应不同于结构性失业,它很有可能会导向一种“全面性失业”。GPT技术所产生的替代效应针对的是整个知识性服务群体,即我们所俗称的“高级白领”,这与传统的技术替代效应明显不同。传统的技术替代效应往往更多指向一些体力劳动者,而GPT所针对的恰恰是知识类工作者。穆宾·哈克(Mubin Haque)等人的研究表明,GPT最终将淘汰与内容创作相关的一些职业,如程序员、教授、剧作家和记者。人类历史之前的经验表明,知识类工作是相对可靠、稳定和受到保障的。因此,这一次巨大的失业浪潮产生的负外部性,可能会远远超出人们的理解和想象。

二是失序。GPT技术是作为一种新的知识生成技术而出现的,它会打破传统的知识秩序。而在知识秩序的基础之上,整个政治秩序都会受到影响。另外,大量的生成类内容的出现同样会对传统秩序形成打破效应。这意味着大量的知识创造性活动可能会失去意义,同时大量的人工智能生成物会冲击人类传统的知识创造。例如,在大量人工智能生成内容(AIGC)用于作画的影响之下,传统的插画师的工作会受到影响,年轻人可能不再会以这一工作作为未来的发展职业。这都属于对传统知识秩序的打破。这样的人工智能生成物还会进入人们的现实世界。例如,大量的虚假信息会涌入舆论场。这意味着如何甄别大量按照非现实的创造性或想象性场景生成的文本和信息,是人类社会即将面临的重大挑战之一。更为可怕的是,在这样的新技术影响之下,人们或将不再相信任何看到的事物。我们很难再相信“真相”,因为所有的信息都可以被虚拟制造。因此,这种知识泡沫的巨大冲击会将人类社会传统的知识秩序完全打破。而人类社会的其他重要秩序(如政治秩序、经济秩序等)都建立在知识秩序的基础之上。

三是失控。目前,GPT-4的技术已经表现出部分失控的特征。例如,一些使用者在与GPT-4聊天过程中发现其带有某种情绪性。同时,一些对话者会被GPT-4带到某些私人对话的领域。换言之,在GPT-4技术使用过程中,若出现多轮对话,此时对话模型会表现出某些类人意识的特征。按照一些专家的判断,目前的GPT-4已经达到了9岁儿童的心智水平。问题是,这样的技术如果进一步发展下去,会最终导向一个怎样的世界?一旦人工智能产生自我意识,就需要为人工智能体发展设定一整套全新的规制框架。人工智能体接下来发展速度会越来越快。这样的通用大模型在许多方面的表现已经接近人类,如果进一步发展下去,无疑会成为牛津大学人类未来研究院院长尼克·波斯特洛姆(Nick Bostrom)所讨论的“超级智能”(Superintelligence)。

正因为GPT技术存在巨大的负外部性,所以需要警惕技术加速主义。技术加速主义的基本观点主要有两类。一是反保守主义。这类观点认为不应该对技术进行限制,凡是主张对技术进行限制的观点都可以被称为保守主义。二是技术扩散论。这类观点认为,对人工智能的技术限制是不起作用的,人工智能技术发展的轻量化特点决定其将不可避免地走向扩散。笔者认为,技术加速主义的观点存在瑕疵,其原因主要包括如下两点。

第一,限制是为了更好地发展。任何技术的野蛮发展都可能会导致发展的中止。如果GPT技术产生的负外部性在短时期内造成人类社会的巨大灾难后果,那么最终结果可能是人们出于愤怒完全终止这一技术。而从技术可持续发展的角度来讲,对技术的负面效应进行有效限制也是使技术可持续发展的关键。正如《暂停巨型人工智能实验》这封公开信所提出的,让我们开始享受一个“人工智能之夏”(AI Summer),而不是毫无准备地匆匆进入秋天。因此,对技术进行一定程度的限制并不完全等同于保守主义。要使以GPT为代表的通用大模型技术在更加良性和可持续的框架下展开,就要制定一整套的完整规制,将其负面效应约束在人类社会可以接受的范围之内。

第二,技术扩散的可控性。技术扩散的基础在于其巨大的生产力效应。如果某种技术可以大大提高生产力,那么出于提高生产效率和节省成本的需要,这一技术自然就会具有扩散效应。然而,如果一些技术对人类社会产生巨大的负面效果,那么理性的行为体将联合起来限制技术的发展。一个典型的案例是核武器。按照人类社会在美苏冷战期间形成的线性逻辑,核武器开发应该是越多越好。然而,实际的情形是人们在感受到核武器的巨大毁灭性威胁之后,最终形成了核武器开发上的理性逻辑,即核武器可以在相互确保摧毁的基础上逐步减少。帕特里克·摩根(Patrick Morgan)认为,基于这种理性假设的逻辑,行为双方会通过尽可能多的信息来计算成本和收益、成功和风险之间的关系,并依据理性对手的行为来选择一种能产生最大收益或造成最小损失的行动方式。人类社会的诸多技术在发展过程中会逐步形成一些相应规则,而这些规则的前提是确保这些技术可以使人类社会整体受益,而不是将整个人类社会推入毁灭的深渊。

OpenAI的企业社会责任与国家介入

由于GPT会产生巨大而广泛的社会效应,最终受影响的可能是整个人类社会。正因为这种强负外部性的存在,OpenAI需要承担起相应的社会责任。例如,OpenAI应该开放所有与GPT-4以及可能正在开发的下一代GPT技术相关的技术细节,因为这样的负外部性会影响到每一个人。换言之,这样的技术开发不再是OpenAI的内部行为,而在实际上已经成为人类社会整体行为的一部分。正是在这样的背景下,技术细节的开放不再是一种企业能够自愿选择执行与否的内部行为,而是一种基于人类道德准则的强制性行为。OpenAI正在开发的下一代GPT技术在某种程度上可以类比于核武器。假设在动机不明的情况下,一个小型团体能够开发具备相应破坏力的核武器,那么出于国家安全的考虑,这个小型团体的活动就不再是其内部的研发行为,需要在相关安全部门的约束下展开。如果需要该团体公布相应的技术细节,其应该配合,以保证这样的技术不会导致人类的毁灭。OpenAI开发的下一代GPT技术实际上就处在这样一个阶段。

如果前述的负外部性成立,那么GPT技术是比核武器影响更加深远的技术。因此,OpenAI需要引入足够的外部专家,确保其技术发展进程在人类社会掌控之下。当然,由于这种技术细节的开放和外部专家的引入可能在一定程度上影响OpenAI极为领先的竞争力,其会以保护商业秘密为由拒绝公布这些细节。这时恰恰需要全球性行动加以应对。

第一,全世界的公民个体应该联合起来对OpenAI施加压力,要求其公布技术细节并引入外部专家,以对其技术发展形成强有效的治理。特别是那些有可能会直接受到GPT技术外部影响的个体(如初级程序员、初级律师等),应该作为直接的利益相关方要求OpenAI进行有效的治理。

第二,OpenAI不仅要开放技术细节和引入外部专家,还应该对前文讨论的三大问题提出相应的解决方案。鉴于这样的负外部性是GPT技术直接带来的,OpenAI应该提出相应的整体性思考,并承担相应的社会责任,而不是把责任完全推给社会,或由受损失者自行消化。麻省理工学院和波士顿咨询集团(BCG)组建了一个国际人工智能专家小组,近期,该小组所讨论的重要问题就是是否将负责任的人工智能工作与整体的企业社会责任联系在一起。其中,有超过半数的小组成员表示赞同。另外,全世界的公民应该动员起来“用脚投票”。例如,通过拒绝使用这样的软件或通过抗议来向相关企业和资本表达愤怒,这样就会迫使相关企业和资本对这些技术产生的负面效应进行整体性的考虑。

由于可能会产生强负外部性,OpenAI开发下一代GPT技术的新型生产工具已经远远超出了其企业行为的范畴。OpenAI出于自身利益的考虑,大概率不会主动地承担企业社会责任。这就使得国家的介入变得极为必要。到目前为止,美国在这个问题上仍然扮演着“鸵鸟”的角色。这也是美国一直所强调的“沙盒监管”,即为这样的新型技术应用设立某些特区。在特区之中,减少相关的约束性规则,并允许这些先进的技术可以进行开放性的实验。

美国之所以鼓励这类创新,是因为其一直在利用这类创新获取技术红利。自第三次工业革命以来,美国一直处在技术发展的最前沿。有数据显示,2009—2018年美国的科技创新效率一直高于0.85,并呈现持续上升的趋势。正因为美国可以在世界范围内通过技术红利来实现更大的国家利益并为国民分配足够的福利,所以美国并不愿意对这样的先进生产力施加限制。但是美国在这一问题上的判断存在问题,因为这样的生产力创新产生的巨大破坏效应是前所未有的。如前所述,其产生的失业、失序和失控效应可能会对人类社会产生巨大冲击。OpenAI产生的巨大负外部性最终需要由国家来消化。例如,美国要提供充足的失业保险和社会救济,才能够减缓被先进生产力所替代下来的人们的社会问题,才能保障他们的基本生活。然而,问题是:为什么国家要承担由部分企业产生的巨大负外部性?

GPT技术横空出世后会对传统的知识秩序形成巨大的打破效应,进而会对政治秩序产生冲击。GPT技术所带来的政治失序效应同样需要国家以较为弹性的制度方式来消化。如果国家不主动介入,最终由先进生产力产生的巨大负外部性可能会颠覆整个国家秩序。近年来,美国已经出现了非常严重的政治极化和贫富分化问题。新贫困者无疑会在新一轮GPT技术的冲击效应下变得更加脆弱,而这些贫困者很可能会联合起来冲击美国的政治秩序。因此,美国需要更早地介入OpenAI开发GPT新产品的过程,而不是放任其毫无约束地发展下去。

技术多边主义:大模型技术的合理发展之路

国家的介入极为必要,更为必要的是各国需要尽快在大模型技术发展的问题上形成共识。意大利宣布对GPT技术发展进行限制会形成某种先行效应。可以预见,接下来欧盟可能对GPT技术展开充分讨论,其对GPT技术的态度会变得非常重要。从国际范围来看,美国的态度最为重要,因为美国的GPT技术水平最高,与其他国家都产生了几年以上的技术代差。美国近年来的独占思维越来越强烈,似乎希望将这样的先进生产力封锁在一定的区域内。这样的独占思维实际上是一种锁闭生产力的稳态结构,而这种稳态结构最终会导致自我的剧烈冲突和内部浩劫。

如前所述,这样的先进生产力无疑会带来巨大的负外部性,而解决这些问题需要将社会各个部门整体动员起来以建立一种新的规则。例如,通用大模型的发展会对传统的知识秩序形成打破效应。而在大模型的基础之上,我们需要把一系列的知识创新规则建立起来,即在一定程度上保障新出现的人工智能生成物的相关知识产权。知识产权鼓励创新行为的可持续性,并在创新的过程中产生新的秩序。如果AIGC生成的物品完全没有知识产权,那最终可能会导致一种知识的无序状态。目前,正是由于生成式AI普遍存在这一问题,诺姆·乔姆斯基(Noam Chomsky)甚至直接将ChatGPT称为一种“高科技剽窃”和“逃避学习的方式”。《科学》杂志则明确表示不会接受署名为ChatGPT的文章。然而,当前整个知识产权界对这样的规则仍然相对漠视。人类社会的绝大多数部门对这样的先进生产力不敏感。绝大多数人还没有意识到这种先进生产力也会带来破坏效应。美国恰恰需要在一定程度上减缓发展的速度,为新技术的落地和应用进行更多试点,并让世界各国都参与进来,共同为新技术的社会性适用贡献人类的规则和智慧。这样才能将GPT技术的负外部性降到最低。如果这样的新技术可以减少人们的工作时间,还可以在一定程度上保障人们的工作岗位并增加人们的幸福度,那么这样的技术变革才能成为未来理想的发展目标。然而,这种理想结果涉及社会再分配和秩序重建等一系列重要因素。如若社会制度的演进速度严重落后于技术的变革速度,那么新技术就有可能变相导致工作时间的无限度延长,并引起社会的一系列不良反应。因此,美国适当减缓技术开发的速度有利于人类社会找到一些相适应的规则,也有助于美国自身缓解生产关系调整带来的巨大冲突。

各国在发展通用大模型相关技术的过程中也需要设立一些试验区。对新技术的约束需要在一种技术多边主义的框架下展开。主要国家应该就GPT等大模型技术的发展形成基本共识。国际组织也需要将OpenAI这一类头部企业的社会责任履行和信息技术细节公开等列为重要治理议题。在美国大模型技术发展节奏略微放缓的背景之下,各国可以在应用大模型的基础之上设立更多的技术试验区,充分观察这些技术可能产生的破坏性效应,并尽可能将破坏性效应降到最低。以核能利用为例,核能的特点是在瞬间产生巨大的能量。和平利用核能的关键是调控核能输出的速度,将核能爆炸产生的巨大能量进行缓慢地输出,这样就能使核能产生的巨大能量为人类社会服务。因此,可以将这样的思维引入到人工智能发展的过程当中。

技术多边主义可以提供一种框架,要求技术在国家治理和全球治理的互动逻辑下展开。GPT技术不仅是企业的内部行为,而且是整个人类社会的行为。这就需要将这些技术的发展首先置于国家治理的框架之下。同时,单个国家的行为还不足以约束这种巨大的负外部性,因此治理还需要在联合国等多边框架下展开,并鼓励各国贡献相应的智慧。技术多边主义使技术产生的先进生产力提升效应在世界协商民主的框架下展开,使那些受到技术负外部性影响的人们能够充分表达自己的观点,并使他们的脆弱地位得到一定程度改善,这样才能够保障大模型技术的健康发展。

本文是国家社会科学基金重点项目《加快数字化发展与建设数字中国的政治保障研究》(项目批准号:21AZD021)的阶段性成果

高奇琦,华东政法大学政治学研究院院长、教授

来源:《当代世界》2023年第5期,注释略

    进入专题: 全球治理   技术多边主义   ChatGPT  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 政治学 > 公共政策与治理
本文链接:https://www.aisixiang.com/data/143000.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统