郦平:人工智能伦理建构的重大疑难及求解——基于应急伦理视角

选择字号:   本文共阅读 1233 次 更新时间:2025-11-09 23:19

进入专题: 人工智能   应急伦理  

郦平  

人工智能伦理建构的主要目的是使人工智能体具有人类的道德能力(拥有道德性能并使其实现),维护人类的利益,不伤害人类且行善。为此,学界从艾萨克·阿西莫夫(Isaac Asimov)的“机器人三定律”,到诺伯特·维纳(Norbert Wiener)的“机器发展应符合人类需求”,再到哈德菲里德·迈内尔(Hadfield-Menell)的“价值对齐”,不仅阐明了人工智能价值对齐的困难及可能路径,更强调了“价值对齐”乃至“价值共生”在人工智能伦理建构中的重要功能及作用,同时也指出了因“时空有限性、类人有限性与算法有限性等难题导致AI价值对齐的功能有限性”问题。

从人工智能伦理治理层面看,面对人工智能在教育、医疗、农业、商业、交通物流乃至娱乐媒体等领域的广泛运用,如何使人工智能体的行为不会给人类带来伤害乃至毁灭,已成为全球治理的核心议题。仅2024年度,联合国人工智能高级别咨询机构、欧洲委员会、全球人工智能安全峰会、世界人工智能大会、北京AI安全国际对话等分别发布了《为人类治理人工智能》《人工智能与人权、民主和法治框架公约》《关于安全、创新和包容性人工智能的首尔宣言》《人工智能全球治理上海宣言》《北京AI安全国际共识》等,此外中国、欧盟、东盟还发布了《人工智能安全治理框架(1.0版)》《人工智能法》《东盟人工智能治理与伦理指南》等系列文件。上述政策文件以人权保障、主权维护、社会公正及人格尊严为核心关切,从技术嵌入设计、法律合理规制、多方合作管理以及社会多元参与等维度,系统构建了人工智能伦理治理的政策框架与法案体系。

若回观人工智能伦理发展史,可发现当前人工智能伦理治理政策以及人工智能伦理建构的主流观点,依然是科林·艾伦(Colin Allen)和温德尔·瓦拉赫(Wendell Wallach)所言的三种经典路径的延展或变体,即自上而下进路(top-down approaches)、自下而上进路(bottom-up approaches)和混合进路(hybrid approaches)。令人遗憾的是,沿此展开的人工智能伦理建构,未充分触及人机共存的根本问题即共存论问题。如图灵奖得主、“AI教父”约书亚·本吉奥(Yoshua Bengio)所言的,“避免未来几年或几十年人类可能面临的两种最危险情况至关重要:一是少数人将通过控制超级人工智能(Artificial Super Intelligence,简称ASI)来控制全人类;二是人类失去对ASI的控制,而ASI的目标是自我保护(这可能与人类目标相冲突并导致人类灭绝),从而危及人类的生存”,这是对“非对称风险”的延展表达。由此,从“非对称风险”到极端风险乃至人类可能面临的急难层面,审视人工智能伦理建构的重大疑难,并展开应急伦理破解尤为重要。

一、人工智能伦理建构的主流路径

关于人工智能伦理建构的必要性及其路径,早在20多年前,科林·艾伦和温德尔·瓦拉赫就提出了“未来人工智能系统必定会独立于人类的监管,自主做出决定。由此,需要在机器人身上实现人工道德,使机器成为道德行为体”。他们把能够做出道德抉择的人工智能系统称为人工道德行为体或道德行动者(Artificial moral agents,简称AMAs),并为人工智能伦理建构设计了三种路径,即自上而下进路、自下而上进路和混合进路。这三种进路对当前人工智能伦理的理论建构和实践治理产生了重要影响。

首先,自上而下进路。此进路依赖于已有的伦理学或道德哲学理论,将伦理准则或道德原则转换为计算符号,采用算法形式来表达指令,通过嵌入设计或外部规约等方式将其置入人工智能系统,以规范人工智能体做出合道德的行为。该进路使用单一或组合式伦理原则应对具体伦理情境或伦理问题,它需要设计者熟悉不同的道德理论和伦理原则,且能够运用逻辑、推理和计算,寻找可执行这些原则的算法设计,以指导人工智能体的行为合乎伦理。

作为此进路的践行者,美国佛罗里达国际大学的格劳(Christopher Grau)便主张采用功利主义路径与正义/权利路径并行的伦理标准建构人工智能伦理。美国特拉华大学的鲍尔斯(Thomas MPowers)提出采用康德式义务论路径建构人工智能伦理,认为出于规则的行为容易以算法形式呈现,基于义务规则的伦理理论可提供一种形式化的程序,有助于人工智能体进行道德推理。还有学者提出了人工智能伦理建构的元伦理学进路,主张将伦理概念、道德术语、价值判断等以计算元伦理学(computational metaethics)的方式呈现。

其次,自下而上进路。此进路主要采用模拟生物进化的方式,通过反复训练、机器学习和复杂适应系统的自组织发展与演化,使人工智能系统能够具有从具体的伦理情境生成普遍的伦理原则的能力,进而做出道德上合理的决策和行为。该进路主要采用人类道德成长的模式,通过模拟值得称赞的人类行为,基于试错法培养道德识别和道德行为力。这就要求设计者能够有效识别和判断具体且复杂的道德场景,通过设计出满足局部功能的伦理算法模块,对具体测试样例不断试错,以调整并优化伦理设计方案。

作为此进路的倡导者,以迈克尔·安德森(Michael Anderson)和苏珊·莱格·安德森(Susan Leigh Anderson)为代表的学者提出了在人工智能伦理建构中,采用伦理共识方式。他们认为,虽然很难找到普遍适用的伦理理论或道德标准,但具体到相关领域的伦理情境或道德场景,依然存在着可以达成共识且确定的伦理原则。麦克拉伦(Bruce M

McLaren)也基于伦理案例实践,采用决议论(casuistry)伦理方法,设计了两种伦理推理的计算模型,为应对伦理困境提供相关信息和伦理推理方法。

最后,混合进路。此进路综合了前两种进路,既考虑已有的伦理学或道德哲学理论,又通过模拟、训练、试错和适应系统生成并优化人工智能体的伦理准则或道德原则。它将情感、意识、心智理论等高级认知功能融入系统中,同时注意这些功能与系统的道德决策能力的相互作用。它强调跨学科的研究与合作,涉及心理学、哲学、计算机科学、机器人学等领域。

人工智能伦理建构的情感进路可视为混合进路的某种尝试。一方面,基于行为主义的人工情感(初级的人工情感)的倡导者提出,根据人类的面部表现、声音表达以及其他能传达感觉的姿态和行为举止,通过模仿人类情感的外部表象使人工智能体拥有人类道德情感。另一方面,作为感觉能力系统设计的倡导者提出,建构拥有内在状态且与人类情感能力相似的人工情感(高级人工情感),以培养人工智能体表现出复杂情感的能力。前者通过人类情感的外在行为表现模拟和识别情感,后者由机器人内部状态产生情感以引发相关行为。

值得注意的是,从2000年到2009年,瓦拉赫和艾伦逐渐意识到,自上而下和自下而上两种进路都过于简化人类的道德观念及道德行为,进而提出在更大范围内,可采用亚里士多德的美德伦理学进路。因为美德作为德目,既可以被清晰地表达,其习得又具有自下而上的特征。同时,他们也讨论了把理性和非理性因素融合到人工智能体的可能性。令人遗憾的是,尽管瓦拉赫和艾伦意识到前两种进路的有限性,但他们再次诉诸亚里士多德的美德伦理学,未对亚氏美德论的精髓做出深度剖析,最终仍然没有深刻意识到人工智能伦理建构的重大疑难。

作为三种经典路径的延展或变体,学界关于人工智能伦理治理方案的讨论也颇为热烈,如价值对齐、嵌入设计方案,其提出将人类的伦理价值和道德原则嵌入人工智能体,设计要求体现安全性、可解释性、公正、人类控制等。如合理规制方案,其通过制定法律和政策来确保人工智能的应用是公正和负责任的,以防范偏见歧视、隐私泄露、不可解释等伦理风险。如合作管理方案,其提出多学科多主体合作,分类分级治理,强调科研人员、开发人员、社会公众等各主体科技伦理素养的提升。再如多元参与方案,其鼓励大众参与人工智能伦理的规制建设,参与全球人工智能伦理治理合作。再如具体应用场景的伦理治理,其关注自动驾驶、智慧医疗等典型应用场景,根据风险发生频率、影响范围、影响程度等评估主要风险,并制定相应的伦理规范。令人遗憾的是,上述治理方案依然未充分叩问人工智能伦理建构的重大疑难及其本质。

二、人工智能伦理建构的重大疑难及其本质

人工智能体能否表现出利他行为,是人工智能伦理建构面临的本质问题。回溯人工智能伦理建构的主流路径,可以发现其面临重大疑难:一是未深度区分“基于利己而利他”与“为了利他而利他”,若混淆二者必造成“非对称风险”的加剧;二是如何应对模因突变,自然人的最高精神表达方式如何转化为可计算的数字模因,伦理精神如何简化为数字符号并通过算法将其嵌入人工智能体;三是如何应对“人类面临生存急难时缺乏急难意识”。

首先,混淆“基于利己而利他”与“为了利他而利他”,会引发“风险转移”导致“非对称风险”及其衍生的系统性毁灭。在人工智能时代,随着信息资本主义、数据资本主义的盛行,少数人会掌握海量信息,若拥有信息优势的一方实施欺诈、诱骗等行为,将加速信息不对称现象的蔓延。尤其是当权力与责任不对称时,强权者不会为自己的错误行为担责,掌握隐秘内部信息的技术专家则容易将后患转嫁给大众。当少数派主导的不对称现象被忽视时,少数人会攫取收益,却将成本乃至破坏性、灾难性后果转嫁给多数人。

从社会表象看,“风险转移”是对他人利益的损害;从伦理本质看,“风险转移”是利他之义务的缺失,使无辜者陷入难以预知的急难之中。无论是人工智能伦理建构的自上而下进路,还是自下而上进路,其重大疑难在于难以真正落实“风险共担”原则。尽管其借鉴了流传千年的美德伦理学理论,却未厘清友爱的类型,这就造成了“基于利己而利他”与“为了利他而利他”的混淆。对二者做出区别的重要原因在于,若是“为了利己而利他”,就如约书亚·本吉奥所言,超级人工智能(ASI)的目标就是自我保护,当其目标与人类目标发生冲突时,人类就会成为其消灭的对象。为此,在人工智能伦理建构中,需引入“为了利他而利他”即完善的友爱原则。

在现实生活中,友爱包含三种类型:有用的友爱、愉悦的友爱以及完善的友爱。前两种友爱最为常见,它们源自个体为满足自身物质或情感需求而生发的效用性友爱,是基于实用性和愉悦感建立的有用性联结。然而,这两种友爱存在一个不容忽视的脆弱性——一旦有用性或愉悦感消失,此类友爱便会随之消逝,“风险转移”现象必会显现。相比之下,“完善的友爱是好人和在德性上相似的人之间的友爱……他们相互间都因对方自身之故而希望他好”,如亚里士多德所言:“那些因有用而爱的人是为了对自己有好处,那些因快乐而爱的人是为了使自己愉快……那些因朋友自身之故而希望他好的人才是真正的朋友”。人工智能伦理建构,需要引入的恰恰是这类以共存论、共善为指向的“完善的友爱”。

“完善的友爱”使得“为了利他而利他”成为可能。当然,人工智能伦理建构的疑难也就在于,“完善的友爱”并非一种可被轻易嵌入或编程的美德,在那些追求沉思之思者身上才能显现。而这种沉思之思是难以被计算的,那些可被计算的又不是沉思之思。如海德格尔所言:“当我们进行规划、研究和建设一家工厂时,我们始终是在计算已给定的情况……这种计算是所有计划和研究思维的特征。这种思维即使不用数来运行,不启用计数器和大型计算设备,也仍然是一种计算。计算性思维权衡利弊……计算性思维唆使人不停地投机……计算性思维不是沉思之思,不是思索在一切存在者中起支配作用的意义(Sinn)的那种思想。”

尽管相对于有用性和愉悦性,将完善性的友爱置于人工智能体有其难度,但以此为伦理基础,引入“风险共担”原则还是可行的,因为“‘风险共担’用淘汰傲慢自大者的办法,约束了人类的傲慢自大倾向”“风险共担”是一种避免不平等、弥补非对称性的原则或法则,“自然界必须有这种对称性法则,否则,就会出现类似于‘向无辜者转移风险’的行动,从而导致自然界的系统崩溃,乃至生物大灭绝”。早在3800年前,“汉谟拉比将他颁布的法典镌刻在石碑上并放置于古巴比伦中心的公共场所……核心思想是,在人与人的交往中建立对称关系,以防止有人转嫁隐藏的‘尾部风险’”。按照《汉谟拉比法典》,如果建筑师建造的房子倒塌导致屋主死亡,建筑师应被处死。也可以说,在人工智能伦理建构中,若从业者开发或研制的人工智能失控,致使利益方遭受伤害、陷入急难,相关从业者也应受罚。

其次,人工智能伦理建构主流进路的重大疑难还在于,如何应对“模因突变”以及如何将自然人的最高精神表达方式即最高模因嵌入人工智能体。模因是指“储存在大脑(或其他实体)中,通过模仿传播的实施行为的指令……一种文化的基本单位,通过非遗传的方式,特别是模仿而得到传递……是任何通过模仿来传播的东西”。相比于因自发或诱发、内源性或外源性引发的基因突变,这里所言的“模因突变”主要表现在两个方面:一是AI技术迭代过程中可能出现的突发事件或不可预测行为,二是当人类被排除在新机器人之外时,人类该如何实现对人工智能的伦理建构,即跨越类主体的伦理模因传播。犹如苏珊·布莱克摩尔(Susan Blackmore)所言,“要让机器人变得像人类——换句话说,要让它们拥有像人类一样的人工智能和人工意识——它们就需要有模因……一种新的模因进化就会出现,或许它们还会发明新的语言和交流方式。机器人模因会驱使机器人进行新的活动,从而产生我们只能猜测的动机。我们人类可能无法模仿新机器人所做的一切,所以我们可能被完全排除在它们的文化进化之外。我们肯定无法控制它们”。此观点在何种程度上成立,在何种程度上又是可改变的,后面将会展开说明。

此外,在人工智能伦理建构过程中,如何将自然人的最高精神表达方式,如伦理精神和道德神圣性简化为数字符号,并通过算法将其嵌入人工智能体也是重大难题。作为模因之自然人的最高伦理精神,在亚里士多德那里被表达为人的特定功能即至善的幸福生活或沉思生活的实现,在马克思那里被表达为人的自由而全面发展的实现。譬如,当人类行为者看到一个乞丐在大街上乞讨,他会因同情乞丐的处境而产生助人的道德行为。人工智能体通过观察和模仿也会做出相应的行为。同样是做出该行为,但人类行为者会考虑该行为是否有助于当事者的幸福生活的实现,如果该行为不能助其改善未来的处境,反而使其养成堕落的乞讨习惯,就会考虑是否终止或改变此类行为。然而,人工智能体却难以做出这样复杂的道德识别或判断。

而且,自然人的最高精神表达方式的复杂性也未被充分重视,如明察秋毫的智慧(明)、坚定不移的信念(一)、超凡脱俗的精神境界(神)以及真诚无欺的品德(诚),亦即古人所言的“一则精,一则明,一则神,一则诚”如何被嵌入人工智能体。尤其在中国伦理文化中,自然人的精神表达方式,即精、神是与气、事不分离的。如王阳明所言:“流行为气、凝聚为精、妙用为神”,三者又通过事得以彰显。许纪霖将其表达为,“精”是生命的本体,“神”是生命中呈现的理性和感性,而“气”是将生命之能量发布于各处。由此,伦理精神既可以被视为生命的本体,也可被视为生命中呈现的理性和感性统一体,还可以被视为将生命之能量发布于各处之源动力。

人工智能伦理建构面临的重大难题,与科学家解释宇宙现象时遭遇的困境相通,即如何理解自然人的最高精神表达以及宇宙万物的交互生成。若缺乏对生命与宇宙大化之内共生关系的洞察,便容易陷入两种偏颇:其一,仅意识到生物具有生存欲望,侧重于对生物机体进行改造,却不去探寻生物的生命本源问题;其二,单纯从维系生存的需求及与环境的关系等方面,解释改造生物机体的缘由,却忽略了生物自身所具有的创造功能。按照熊十力的理解,科学不追问生命的本源是可以理解的,但哲学若不究此问题,就失去了其存在的意义。如其所言,“万物禀受生命、心灵以有生,即皆有创造功能,否则万物何能进化到人类?科学不问生命的来源,我无间然;但哲学如不过问及此,便不成话”。人工智能伦理建构亦是如此。

最后,人工智能伦理建构面临的重大疑难还表现为对人类生存之“急难”的无意识,从而加速了其发生。按照赵汀阳的理解,“作为形而上学问题的超级人工智能,即具有自我意识和神级能力的人工智能,也可以理解为一个关于人工智能的神学或神话学的讨论。这个形而上的危险虽然遥远,但并非杞人忧天,科学技术的突破有可能像火山爆发一样突然”。由于人工智能的始因在人,而人的始因不在人,那么,当人之衍生物想彻底颠覆和超越人的存在时,这既是要改变存在的性质,又相当于“再造存在”,而任何“再造存在”都是一种冒险,都会将人类推向生存之“急难”。因为自人类诞生以来,人的始因一直是未完成、持续迭代且令人敬畏的神圣之所。

人工智能对数据与算法的依赖,会带来过度计算,其后果是“‘存在者’,即人们所谓的‘现实之物’、‘生命’和‘价值’,通过存有而失本有了”,当人失去本有,会陷入存在之离弃状态,当“存在之离弃状态把自身掩盖于不断增长起来的计算、速度和巨量之要求的有效性之中”,对急难的无急难意识就成为人类生存所面临的最大且最为严重的急难。因为,急难即存在之离弃状态,如海德格尔所言,“这种离弃状态包括存在之被遗忘状态,同时也包括真理之崩塌”。对人类未来之急难的无急难意识,更会衍生可怕的虚无主义,“真正的虚无主义:人们不愿承认无目标状态……因此,正是在人们自以为又有了目标的地方……有着最大的虚无主义,那就是:有组织地对人类之无目标状态视而不见”。面对第一次世界大战的爆发与致毁性技术的使用,海德格尔早就对人类面临的急难给予了警示。令人遗憾的是,百年后的当下,在生成式人工智能伦理建构中对人类之急难的存在论考量依然不够充分。人工智能伦理建构,若缺乏对人类生存之急难的存在论审视,便会带来世界的没落。按照海德格尔的理解,“在我们说世界的没落时,世界指的是什么?世界总是精神性的世界。动物没有世界,也没有周围世界的环境。世界的没落就是对精神的力量的一种剥夺,就是精神的消散、衰竭,就是排除和误解精神”。如果说“世界”并非仅仅是一个物质存在的集合体,而是一个蕴含着深厚精神内涵的广阔场域,那么,世界的没落实质上是对人类精神力量的一种剥夺,这种剥夺不仅指个体精神的消散,更是整个社会、整个人类文明精神基础的动摇与衰竭。当人类精神被人工智能削弱时,人的存在感、价值感会变得迷茫、虚无,失去对生命意义的探索。这种精神的消散,如同一场无声的灾难悄然侵蚀世界的每一个角落。

对于精神力量的剥夺可能带来的人类生存之急难,海德格尔就曾做出过警示,如其所言,“欧洲处于俄国与美国的夹击之中,这两个国家在形而上学上是相同的,也就是说,它们的世界特征和它们与精神的关系是相同的。由于这种对精神力量的剥夺是从欧洲自身产生出来的,并且终于是由欧洲自身十九世纪上半叶的精神状况所决定,所以欧洲的境况就愈加成为灾难性的”。当一个国家或社会不再能保持一种精神世界的伟大、宽广和敬畏时,这个国家和社会就会丧失其强大的生命力。当“占统治地位的维度变成了延伸和数量的维度。‘能力’不再意指从高高的充盈处流溢的与可从力量之大有可为处发出的潜能,而是仅指那任何人都可以学得的,总是与一定的血汗和耗费相联系的一点技能”,这必然会带来精神的萎靡、精神力量的溃散乃至世界的没落。

概言之,人工智能伦理建构面临的重大疑难是如何对人类生存之急难做出哲学共存论或存在论审视。每一次存在论的审视都是对既定观念和理论的深刻反思及变革,是对既定的认知边界与理论架构的挑战,是对真理与智慧的不懈追求和优化,更是对人类心灵、精神乃至生存境遇中紧迫难题的深刻省思与积极应对,每一次这样的历程都蕴含着应急伦理的出场,即面对生存急难,以去伦理、去存在的方式做出紧急应对。

三、人工智能伦理建构疑难之应急伦理破解

按照英国演化生物学家理查德·道金斯(Richard Dawkins)的理解,人类不过是基因和模因的载体,而基因和模因只想着复制、传播自己,因此人类有点像是被基因和模因摆布的“机器人”。据此观点,人工智能伦理建构依然是模因的变相复制或传播。加拿大心理学家基思·斯坦诺维奇(Keith EStanovich)却认为,需要纠正传统的认知,就算人类是机器人,那也是特殊的机器人,虽然基因和模因都有自私性,不关心人类未来究竟会怎样,但只要善于运用道德理性的力量,就可以改变它们对人类的影响,这就是人类作为“机器人”发动的“叛乱”。人类的每一次“叛乱”都可以说是一种应急伦理的出场。相比于传统规范伦理衍生于自然进化与伦理符合论,应急伦理更关注合成进化与伦理内共生,前者诉诸规范论,后者诉诸共存论。基于此,人工智能伦理建构疑难的应急伦理破解,就可基于“合成进化”并采用“风险共担”以应对“非对称风险”,走向人与类人(AI/AGI)的“内共生”以应对“模因突变”,践行“共存论”以应对人类生存之“急难”。

首先,基于“合成进化”并采用“风险共担”以应对“非对称风险”。凯文·拉兰德(Kevin NLaland)指出,“人类的进化可以分为三个时期:基因进化时期、基因—文化协同进化时期和文化进化时期”。或许,“我们已经进入了第四个时期:合成进化时期(synthetic age)”。这一时期的标志便是“硅基新生命形态的诞生”。人类与机器交互融合的合成进化阶段,“不同于人类将智力施加于自身进化的文化进化阶段,合成进化时期的人类智力用在了推动人类的共生体——机器——的进化上,而机器反过来也提升了人的能力,推动了人类智力的进化”。合成进化不仅是技术的进步,也是人类和机器成为共生体,共同推动彼此的进化。合成进化的本质是人与机器通过技术融合(如脑机接口)形成新的智能共同体。这种融合打破了生物进化与文化进化的单一路径,使人类智力转化为机器进化的驱动力,而机器的算力与算法又反向扩展了人类认知边界。但两者的差异(如机器的超高速信息处理与人类的情感决策)会加剧权责的不对称,形成进化链条中的结构性失衡。

要破解人工智能伦理建构的重大疑难,就需要重视人类与机器“合成进化”的深度交互影响,使人工智能技术在影响人类的同时,也为人类的伦理道德、精神文化所塑造,注意到当人类以大脑植入的形式与技术融合成为生化机器人,并开启拟人智能的新时代时,基于“合成进化”并采用“风险共担”以应对“非对称风险”更加重要。因为,一方面,犹如“任何生物,只要能适应其周边生物,就可以在某种程度上起到间接的共同进化触媒的作用。所有的生物都相互适应,就意味着同一生态系统内所有生物都能通过直接共生或间接相互影响的方式参与到一个共同进化的统一体里”。另一方面,将道德主动权和道德责任归属都推给人工智能体也是偏狭的。鉴于“人类的智能无非是经过几百万年的时间,为了生存下去而进化出的非常有局限性的合成物而已。在所有可能的想法和精神空间之中,它只是一个小小的点”,那么,人类以自身的智能创造出的人工智能依然是有限的,当前的人工智能也只是将人类大脑的部分功能合成并转化出来,由此,在“合成进化”阶段,人类与机器需要以“共存论”为指归,这就要求人类践行“风险共担”而非“风险转移”原则,以应对因“信息不对称”“权责不对称”而衍生的“非对称风险”。若秉持应急伦理之“风险共担”原则,即使无法清晰辨识致毁性技术的因果链条,依据“得利之人需承担相应不利后果”的原则,人工智能体的利益相关者(如机器人生产商等)也应承担相应的道德与法律责任。用荷兰学者韦尔伯斯(Katinka Waelbers)的话说,实践者(practitioners)即从事实际技术研发的工程师、科学家及行政官员(包括个人与集体)都是承担道德责任的主体。这有助于消解贝克提出的“有组织的不负责任”现象。按照贝克(Ulrich Beck)的理解,“全球市场(风险)是‘有组织的不负责任’的一种新形式,因为它是一种极端非个人化的制度形式……在信息革命的帮助下,全球市场风险能够允许近乎瞬间的基金流动来决定谁(如果有的话)将成功,谁将遭受损失”。人工智能领域的伦理风险更是这种现象的典型体现。

其次,走向人与类人(AI/AGI)的“内共生”以应对“模因突变”。“内共生”作为进化生物学中的核心术语,描述了生物体之间通过共生关系实现共同进化的现象。在人与技术日益融合的今天,这一观念为理解人与类人之间的关系提供了新的视角。尤其是当技术、伦理作为模因,亦即人类思想、观念、文化等进化的基本单位,其相互僭越对人类生存带来颠覆性影响时,以“内共生”理念应对“模因突变”,成为破解人工智能伦理建构疑难的一个亟待关注的重要方向。

“内共生”通常是指“一个生物体(宿主)吞噬或捕获另一个生物体(内共生体),并在宿主内部建立一种共生关系。这种共生关系可以对宿主的生存、繁殖和适应性产生重要影响,同时也为内共生体提供了适宜的生存环境和资源”。按照进化生物学家林恩·马古利斯(Lynn Margulis)的理解,“复杂生物体的进化不是依靠‘标准’的自然选择,而是通过细胞间一种密切合作的狂欢来实现的,它们彼此相互接触甚至进入各自的内部共生”。以此推之,在人与类人(AI/AGI)的关系中,人类作为宿主,人工智能技术作为内共生体,共同形成了一个复杂的“内共生”生态系统。

以“内共生”应对“模因突变”,原因在于,面对模因突变的挑战,人类需要与机器人以及智人建立更加紧密的共生关系。通过利用技术的优势,人类可以促发技术突变、创造新技术种类,从而推动社会的进步。同时,这种共生关系也为人类提供了应对模因突变的能力。“基因起码还有物质实体作为基础,模因却是抽象、无形、不可度量的。基因的复制有着近乎完美的保真度……模因却很少精确地复制,相互边界也总是模糊的,并且产生突变的程度要是放在生物学里将是致命的”。因此,在人类与机器“合成进化”阶段,以“内共生”应对“模因突变”就尤为重要,即“太初有信息,而后才有的道(word)。这种转换的实现有赖于生物体发展出选择性利用这些信息从而让自己的物种生存和延续下去的能力”。

尤其是随着人工智能技术的发展,人类的衣食住行已经极度依赖于数智技术。人与技术的共生关系不仅改变了人类的生活方式,也推动了人类社会的进化。以“内共生”应对“模因突变”,意味着“尽管如今我们面临着机器影响我们基因的可能性,但这段协同进化关系中的人类这一方仍然主要按照模因进化的方式——而不是生物进化的方式——发展。我们利用技术赋予我们的软硬件开发新的软硬件,而在技术的推动下,我们促发技术突变、创造新技术种类的能力也像道金斯的模因一样不断进化。一个强大的反馈环路就此形成:技术带来模因突变,模因又反过来引发技术突变”。

以“内共生”应对“模因突变”,重在强调“人与技术之间相互依赖形成了一种共生关系,而共生关系可以带来比HGT更强大的突变来源。生物学家将其称为‘共生起源’,即共生双方融合成为一种更复杂的全新的生命形态。共生起源也被称作‘内共生学说’”。按照该学说的理解,虽然人类与机器彼此间还没有达到一旦离开对方都将无法单独存活的程度,但毋庸置疑的是,离开了人工智能等新兴技术,人类的生存质量会被大大降低,人与技术彼此存在于对方之中。这正彰显着“科技正在与人类协同进化,而这种进化并不像技术鼓吹者或技术恐惧者所宣称的那样,会导致人与技术相融合或者被技术所灭绝,更可能的结果是人与技术共生”。

最后,以“共存论”应对人类生存之“急难”。在人工智能伦理建构中,将“共存”作为最高价值引领,原因在于“人类社会共之难,在基础层次上乃是出于整体与个体的两极张力、系统复杂化急剧增加及思与行的脱节。改变之一策是超越整体哲学和个体哲学的对立走向共之哲学……当务之急是传播‘共’的思想,开展‘共’的教育,推动‘共’的实践”。由此可见,针对人工智能伦理建构中存在的重大疏漏,应急伦理防范需以共存论为基础,以共同应对未来可能出现的、危及人类存续的极端风险。

共存论使我们意识到与他者(作为人类的结构性的同代与作为过程性的代际、作为类人的人工智能体)之间存在着“共”的链接,有着共存、共在的渴望。“共存”的基本前提与外部表达主要表现为“愿他者存在”“让他者存在”,这样才能为“他者”存在预留空间,也才能走向“共在”。“让他者存在”需在关键时刻践行应急伦理,以伦理的方式“急他者之急”,“应他者之需”。这就是海德格尔所言的“此在作为在-世界-中-存在同时就是相互共存(Miteinandersein)——更确切地说:‘共在’”。从共存论底基看,人工智能伦理建构以“共存”“共在”为指向,这种“共在所表示的是属于此在本身的一种与在-世界-中-存在同等原初的存在品格,而这一品格就是他人的此在向来属己的此在面前的共同展开状态(Miterschlossenheit)的可能性的形式上的条件”。

“共存论”得以实现的现实基础是由“全体性的心”而延展的全人品格(如使利他得以可能的仁心、良知良能、善意等),思量其如何被符合化、数字化以嵌入人工智能体尤为重要。人生是由心主领,而心又是“全体性的心”。其难以被割裂,基于分裂的心而生成的人是异化的个人。分裂的个人无法成就自己的健全人生,更无法成就他人。在中国文化语境中,强调依心而成己、成人、成世,由此,人才能创造适合自身的繁荣充实的人生。中国伦理学所言的“心”是孔子所言的仁心,也是阳明所言的良知,“在宇宙论意义上,心是物的主领者。在人生论意义上,心、本心之仁或良知是身的主领者,人生的主领者”。心是全体性的,如何将“全体性的心”而延展的全人品格转化为数字符号或算法指令,也是破解人工智能伦理建构疑难的突破点。

为此,需充分重视“非对称风险”“模因突变”、人类生存之“急难”的加剧可能带来的系统性或致毁性风险。破解人工智能伦理建构的疑难,需要应急伦理出场。应急伦理犹如以“危险的动态管理”为指向的独立代理系统,其对于应对人类生存之急难,提高人工智能伦理建构的安全性具有启发意义。譬如,为了提高医疗领域人工智能系统的安全性,福克斯曾提出,“静态的软件设计与验证和危险的动态管理两方面应该是互补的。虽然传统的安全工程在人工智能系统的设计中可以发挥重要作用,但即使是最优秀的管理程序在复杂环境中也不可能保证复杂系统的可靠性与安全性,因此智能系统在运作过程中应该具备监控危险的能力,当危险发生时可以进行相应的处理。我们可以把能够识别与管理潜在危险的智能系统看作独立代理系统(independent agent)与主系统同时运行”。

人类生存面临的每一次急难,都需要应急伦理的出场,需要一种矫正观念秩序、重塑社会伦理秩序的伟大应急,人工智能极速发展使当下社会呈现非常态,这一现象尤为突出。应急伦理是在急难情境下对人类心理、精神乃至生存困境的伦理应对与突破,它对可能产生急难的基因或模因进行矫正和优化,以修正并完善人类秩序。从更深层的意义上看,它是对人性光辉的呼应或重塑,旨在引导人类社会的发展步入一个更为健康文明的轨道,是对人类社会未来发展的深刻洞察与应急防范。为此,人工智能伦理建构疑难的应急伦理破解,倡导基于“合成进化”并采用“风险共担”以应对“非对称风险”,走向“内共生”以应对“模因突变”,践行“共存论”以应对人类生存之“急难”。

原载于《社会科学战线》2025年第10期,注释从略。

    进入专题: 人工智能   应急伦理  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/169203.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统