摘 要:一些学者认为,我们赋予动物道德地位的依据也适用于人工智能,它们或许也有道德地位。因此,我们不应只顾让人工智能造福人类社会,还需考虑它们自身的利益和福祉。哲学家对于何种属性能够奠定道德地位多有分歧,在诸方案中,谢利·卡根基于广义能动性的道德地位等级论颇有前景。如果人工智能像动物一样拥有广义能动性,那么它们就能具备某种程度的道德地位。虽说这一方案成功论证了能动性可被视作识别道德地位的指示器,但是能动性与有意识的感知体验存在着共变关系,仅凭能动性无法将道德地位赋予人工智能。更重要的是,人工智能的本体论形态使之无法拥有像动物那样的能动性,因而无法享有道德地位。
关键词:人工智能;道德地位;能动性;动物
很多人认为,人工智能伦理的核心宗旨就是要让人工智能(以下简称AI)善待人类;相比之下,动物伦理学的核心宗旨则是要让人类善待动物。尽管二者都关乎善待,但是善待的对象一个是人类,一个是动物。这或许意味着AI与动物在道德地位(moral status)上有着本质区别。本文力图捍卫这一常识。但是,并非所有人都赞同这个观点。随着AI日益强大,不少学者相信,AI也将获得道德地位。他们表示,就像我们不该一味从动物身上攫取资源和价值那样,我们也不应只顾让AI造福人类社会,还需顾及AI自身的权益与福祉。(参见孟令宇,第30-35页;程鹏、高斯扬,第46-51页)
如果某个实体拥有道德地位,这就意味着该实体凭借自身的某种特征使得他人既不能随意对待它,又不能无视它的利益、偏好和福祉。(cf.Dwyer,p.9)拥有道德地位,也意味着有可能遭受伤害或者道德上的错误对待,从而要求他人对其担负起道德义务。比如,朋友借我一件玉佩,我有义务妥善保管,万一我将其打碎,尽管我没有伤害这件玉佩本身,但是我仍然需要对器物的主人负有道德义务,而不是对器物负有道德义务,所以器物本身不具有道德地位。朋友委托我照料她的猫,我有义务妥善看护它,如果我扯断它的尾巴,那么不仅会伤害到我的朋友,还会伤害这只猫本身。
一些学者认为,像猫这样的动物拥有道德地位,但是AI并非凡物,基于同样的原则,它们也有道德地位,耶鲁哲学家谢利·卡根(Shelly Kagan)便是其代表。他发展出一种基于广义能动性(agency)的道德地位等级理论,捍卫了一种常识观点:人比动物(在道德上)重要,一些动物比别的动物更重要。(cf.Kagan,p.3)卡根的理论还意味着,AI不仅有可能获得道德地位,而且如果有朝一日AI的广义能动性超过了人类,那么AI比人类更重要。本文反驳卡根的主张:一方面,即使道德地位有等级之分,广义能动性也只是道德地位的必要非充分条件;另一方面,即使动物有道德地位,由于AI缺乏真实的广义能动性,因而它们也不具有道德地位。
本文先梳理讨论道德地位的三种立场,指出卡根的理论处于其中的位置(第一节)。随后展示卡根通过广义能动性这个概念论证动物的道德地位会有等级区分的内在逻辑(第二节)。继而分析指出,卡根将这套思路挪用于AI为何是错误的(第三节)。最后我们将看到,AI的本体论形态使之无法真正具备广义能动性,这也是AI缺乏道德地位的深层理由(第四节)。
一、谁有道德地位?
和许多重要的哲学概念一样,“道德地位”这个概念经受着概念工程(conceptual engineering)的修正和改造。尽管不同的学者对于奠定道德地位的相关特征提出了不同的界定方案,但通常涵盖四个维度:(1)是否只有道德能动者(moral agent)才能拥有道德地位;(2)道德地位是否要么有,要么完全没有;(3)若某个实体拥有道德地位,是否就意味着其权利绝对不可侵犯;(4)个体是否因其分享它所属的自然类的类本质(而非凭借个体自身的属性),才能获得道德地位。(cf.Jaworska)
一种康德式的保守主义对于上述四个维度的问题全部给出肯定的回答,因而只有“理性存在者”才有道德地位。目前来看,只有人类具备道德认知、自主决策以及承担道德责任的能力。此外,考虑到(2)和(4),婴儿和植物人这类“边缘案例”并不“边缘”,接受增强技术的“后人类”也不是道德上的“超人”,因此所有人类成员都有同等的道德地位。(参见李亚明,第16-35页)按照这种理解,道德地位是稀缺的,动物肯定没有道德地位。现在的问题是,如果AI高度发达,那么它们会有道德地位吗?持保守派的学者大概会说,由于人类的实践推理、行使判断力、自我反思,以及深思熟虑的能力深深植根于我们的社会文化背景中,而这些社会文化影响又从属于AI所不具备的感性领域,所以在这个意义上AI无法成为我们这个道德共同体的成员。(cf.Manna and Nath, pp.139-151; Chakraborty and Bhuyan, pp.325-331)
与保守派相反,持有女性主义和生态主义立场的激进派从关怀伦理或共生关系等视角入手,不仅批判了传统伦理学的抽象理性原则,还声称一旦人们与动物或者AI建立有价值的社会关系网络,它们就有道德地位。(参见赵斌、田天增,第73-80页)相比之下,中间派主张,如果AI具备了类似动物般的心理能力,它就有道德地位。这些心理能力可以是有意识的感知、理性的认知能力、自由意志、自我意识,以及这些要素的变种或组合。但该方案支持者众多,内部分歧非常复杂。(cf. Clarke et al.[eds.], pp.159-178)关于道德地位的授予,中间派既不像保守派那么苛刻,又不像激进派那么慷慨,因而对我们关心的议题颇具讨论价值。
总体来看,中间派大致会把奠定道德地位的心理能力分为两类:一类是有意识的体验或感知(sentience),另一类是理性能力或高级认知能力。就前者而言,以彼得·辛格(Peter Singer)为代表的功利主义者在较为宽泛的意义上主张,拥有快乐和痛苦的感知体验为道德地位奠定了基础,即如果AI有感知,AI就有道德地位。遗憾的是,科学界普遍不看好AI会发展出有意识的体验或感知。(cf.LeDoux et al.,pp.832-840; Dennett,pp.41-53; Dehaene et al., pp.486-492)就后者而言,尽管AI变得愈发智能,但如果我们把认知能力的门槛拉得太高,那么绝大多数动物则无法被赋予道德地位,这又不符合动物伦理学家的初衷和共识。
为了让动物和AI都拥有道德地位,作为中间派的卡根提出了一种富有建设性的新主张。在他看来,面对界定道德地位的四个维度,应当全部给予否定的回答。广义上的能动性是道德地位的充要条件,只要个体具备这种能动性,他们就有某种程度的道德地位。个体要有广义能动性,并不需要成为道德能动者,而且不同个体的广义能动性程度有高低之分,其道德地位相应地也有等级差别。比如,如果AI的广义能动性程度相当于猫,它的道德地位就等同于猫;如果AI的广义能动性程度相当于人类,它的道德地位就等同于人类;如果AI只有最小程度的能动性,它就只有最低程度的道德地位。那么,什么是广义能动性呢?卡根明确指出:
我将能动性描述为拥有各种偏好和欲望,并且按照这些偏好和欲望去行动……所以能动性至少需要欲望,需要拥有如何满足这些欲望的信念,以及粗略而言,需要按照能够满足自身欲望的信念来行动。(Kagan, p.21)
不难看出,根据卡根的理解,广义能动性指的就是拥有欲望和信念,并且能够根据欲望和信念采取行动的能力。如果一只猫有捉老鼠的欲望,有“老鼠藏在洞里”的信念(参见唐热风,第4-20页),它在洞口静候老鼠的行为就可以用相关的欲望和信念作出解释,这只猫也就有了广义能动性。很显然,卡根关于能动性的理解不同于标准观点。在行动哲学和实践哲学当中,有能动性意味着能够实施有意图的行动,有意图的行动又意味着具备给予和权衡理由的实践理性能力。(cf.Davidson,pp.685-700)
尽管如此,卡根如此宽泛地理解能动性有其合理性。首先,从最“广义”的角度讲,一个“能动者”(agent)是具备行动能力的存在者,而“能动性”这个概念是用来刻画这种能力的实施或展现(cf. Schlosser);其次,从演化论的视角看,既然人类的心理能力与动物的心理能力之间只有程度上的差别,那就不可否认动物也有较低程度的能动性;再次,如果我们相信一些动物比另一些动物有可能拥有更具价值的生活,我们就必须承认,使得个体有可能实现更具价值的生活的一个重要部分便是拥有足够高级的相关心理能力(也就是程度较高的能动性),否则个体就不会渴望、追求、获得和享受那些特定的善品(goods)。(cf. Kagan, p.121)出于便捷,下文将用“能动性”指代卡根所说的广义能动性。
无论是激进派、中间派,还是中间派的新锐代表卡根本人,他们都汲取了动物伦理学家论证动物拥有道德地位的理论资源,力图在AI的道德地位与动物的道德地位之间找到“最大公约数”。然而,他们都忽视了AI区别于动物的一些异质属性。我们不妨先思考以下两组问题,以便初窥其中奥义。
Q1:我们可以为了找乐子而钓鱼吗?我们可以为了满足口腹之欲吃小龙虾吗?我们可以为了保持环境卫生而灭杀蚊虫吗?我们可以随意杀死一只正在冬眠的蛇吗?
Q2:我们可以为了找乐子而戏耍你的语音助手Siri吗?我们可以为了满足高难度的工作需求而让手机上的DeepSeek程序运行到死机吗?我们可以为了防止超级智能的出现而关停深度求索公司吗?我们可以毫无缘由地突然拔掉机器人的电源吗?
对于卡根等人而言,这两组问题都不好回答。Q1有争议的理由,要么是无法确定动物凭什么拥有免遭侵犯的权利,要么是无法客观权衡人类获得的利益能否抵消动物遭受的福利损失。对于Q2来说,产生争议的理由不同于Q1,我们完全不清楚应该如何回答这些问题。因为AI既不是常规物种,又不是常规物件。
二、从广义能动性到道德地位等级论
抛开AI不谈,我们先来考察卡根如何论证动物也有道德地位,以及它们的地位为何不如人类。我们可以将卡根的主张分解成三个论题。
论题一:奠定道德地位的充要条件是能动性而非感知。
论题二:不同的物种个体,因其能动性不同,道德地位也不同。
论题三:尽管人与动物以及动物与动物之间有着广泛的能动性差异,但是我们需要把道德地位的等级数量限制在易于实践的范围,有四五个就够了。
鉴于我们讨论的焦点,这里暂且搁置论题三。需要提醒的是,虽说卡根没有用专门的章节讨论AI,但在论证过程中,他在多处引入了AI以及其他异于动物的智能体。卡根相信,道德地位等级论至关重要,因为这不仅是挽救当下动物伦理学的一剂良方,还是所有伦理学(包括AI伦理学)亟待采纳的整体方案。(cf. Kagan, p.303)
第一,卡根区分了道德身份(moral standing)与道德地位,道德身份非有即无,道德地位有等级差异。有道德身份的对象,未必有同等的道德地位。(ibid., p.3)这与动物伦理学的主流理论功利主义非常不同。一方面,功利主义者认为,感知痛苦或享受快乐的能力是某个实体享有利益的充分必要条件(参见辛格,第10页);另一方面,功利主义承诺了平等原则,我们对他者的关怀或利益考量,不应当取决于他者是什么,或者他者可能具有什么不同寻常的特质。只要有感知能力,无论白人还是黑人,无论人类还是动物,这些个体在价值上或道德地位上都是平等的。(同上,第7页)然而,这一观点暗中预设了不同物种在与利益相关的感知能力方面没有程度或类型上的差异。正是这两点构成了卡根批评的目标,因为他相信,能动性构成了动物享有利益的基础,由于动物的能动性有程度区分,所以并非所有动物都是平等的。卡根把功利主义者的主张称为道德地位“一体论”,以便区别于他的“等级论”。
第二,功利主义者对于能动性这个概念沿袭了传统理解,狭义的能动性包含自由意志、自我意识、推理和语言之类的高级思维能力。边沁就曾表示:“问题不是它们(指动物——引者注)能否说理或说话,而是它们能感知痛苦吗?”(转引自辛格,第10页)用这种高度发达的狭义能动性概念作为判断是否具有道德地位的根据,功利主义者当然不愿接受,因为动物可能既没有语言,又缺乏人类理性能力。卡根把能动性的标准设置得很低,比如一只壁虎“喜欢”阴暗的环境,一只蚊子“想要”寻找汗液的气味,但凡它们根据自己的意愿和偏好行动,无论是否有自由意志,也无论是否知道自己在做什么,都算有能动性。(cf. Kagan, p.18)能动性是一个光谱,尽管不同动物的认知能力千差万别,但这并不妨碍我们原则上依然可以为动物的能动性作出等级排序(这项工作当然要交给经验科学家),因此动物的道德地位会随着其自身能动性的差异而有所不同。
为了兼顾“边缘案例”,我们在确认某个个体的道德地位时还需考虑能动性的潜能和模态。比如,刚满月的婴儿,其能动性水平大概相当于一只猫,但我们不会认为婴儿的道德地位与猫等同。婴儿有逐渐成为一个具有成熟理性个体的潜能,这一潜能可以大幅提升其道德地位。尽管如此,但是提升幅度有多大,这取决于潜能的可能性有多大。设想将来科学家发明出一款开发动物大脑的药物,这款药物能让一只边牧犬有了变成人格者(person)的潜能,比如会说话、会研究哲学,然而发明这款药物的可能性微乎其微,这一渺茫的潜能无法实质性地提升边牧犬的道德地位。(cf. McMahan, pp.26-30)除此之外,道德地位还需考虑模态事实。比如,一位曾因意外事故导致大脑严重受损的成年人,他原本可以像正常成年人一样享受正常生活,但他当下的能动性水平仅相当于一只边牧犬。但我们不会用对待边牧犬的方式对待他,因为他的模态地位(modal status)会大幅提升其道德地位。(cf. Kagan, pp.130-145)
第三,卡根不仅驳斥了一体论,还辩护了自己的等级论。有道德地位的实体意味着需要他者对其负有道德义务。道德义务不仅事关尊重和关爱,还要落到实处,只有通过福利分配才能兑现道德地位所承诺的权利和利益诉求。然而当动物和人都被纳入福利分配范围时,无论我们依据哪种分配原则(无论是平等主义、优先主义、充足主义还是应得理论),都必须将有待分配的个体的相应的道德地位纳入考量,否则就会得出一系列荒谬的结论。(ibid., pp.66-67)以充足主义分配原则为例,该原则认为,每个人都有权利过上最低限度的体面生活,福利分配的首要目标就是照顾那些生活惨淡的个体,将其福祉水平提升至特定的基准线之上。按照一体论的主张,因为动物和人的道德地位是平等的,所以两者应当享有的最起码的体面生活所需的福祉基准线也是一致的。因此,我们有必要大幅提升动物的福祉水平,以便让其达到或接近人的福祉基准线。然而,这个主张既滑稽又不人道。比如,一位叙利亚难民流离失所、饥寒交迫,但他的绝对福祉水平仍远高于一只饱食终日的老鼠,如果这时还把一块面包留给老鼠而不是这位难民,就显得十分荒谬了。道德地位等级论表示,一份福利有多少价值,不仅取决于这份福利本身,还取决于享有福利的个体的道德地位。(ibid., pp.99-100)一块面包能带来多少好处,不仅要看这块面包本身有多大或者有多少营养成分,还要看你所给予的对象。
最后,卡根提出了一种等级化的义务论,我们对道德地位各不相同的动物有着不同等级的义务。为了让道德义务易于实践,我们有必要借鉴现实主义的规则后果论原则,将道德地位的等级数量限定在符合人们认知能力的范围内。毕竟,人类已知的动物多达150万种,过于精细繁琐的等级排序终将行之无效。(cf. Kagan, pp.292-299)
三、广义能动性不是道德地位的充分条件
尽管卡根重点讨论了动物的道德地位,但我们关心的是其方案是否适用于AI。卡根对此表示肯定,他给出了三个论证:感知能力的非必要性论证、能动性的充分性论证,以及感知能力与能动性的可分离性论证。三个论证都在用思想实验揭示人们隐藏的直觉,这些思想实验都涉及诸如AI这般异于已知生物的智能体。
第一,感知能力的非必要性论证。设想有一种生物C,C有感知但缺乏能动性,不过C只对蓝色有感知。在这种情况下,你若阻止C体验蓝色,不会减损C的福利,因为C没有能动性,而且它对感知蓝色没有任何偏好或欲求,所以C没有道德身份。(ibid., pp.13-15)
第二,能动性的充分性论证。在某个外星文明中生活着一群硅基机器人,这些机器人不仅会繁衍后代,还会演化出国家、科技和文明,它们的能动性水平不亚于人类,唯独缺乏有意识的感知能力。作为科学家,你捉住一只小机器人,想要拆解它研究内部构造。危急关头,小机器人的母亲向你跑来,厉声呵斥你无权将其孩子当作物品来处置,并不顾一切地乞求你放开它。在此情形下,如果你违背机器人母子的意愿,执意要拆解小机器人,这在道德上就无异于谋杀。这些机器人不仅有道德身份,而且它们的道德地位与人类相当。(ibid., pp.28-29)
第三,感知能力与能动性的可分离性论证。回顾电影《2001:太空漫游》中的超级计算机哈尔(HAL),它不仅相信木星任务无比重要,还相信人类的多疑将威胁这项任务的成功执行。它编造谎言,转移了戴维的注意力,打算除掉妨碍完成任务的那些人。毫无疑问,哈尔具备高水准的能动性,但在思考这些场景时,我们几乎没有考虑哈尔是否有感知。(ibid., p.21)这表明能动性与感知能力在概念上是可分离的,超级计算机原则上可以有能动性但没有感知能力。
这些奇思异想的场景试图表明,我们认为需要对某个实体负有道德义务(无论它是怪异生物、外星机器人还是超级计算机),只需基于该实体有偏好、欲望和信念,跟它是否有感知能力无关。接下来我们将会证明,从这些思想实验当中无法推出卡根想要的结论。
关于第一个思想实验,我们未必会与卡根分享同样的直觉。站在演化论的立场,如果生物C对蓝色没有偏好,并且蓝光波段无益于提升C的适宜度,那么我们很难想象C为何选择性地演化出对蓝色的感知。猫可以感知疼痛,这是因为疼痛体验为猫提供了避开危险的动机偏好;蚂蚁和蜜蜂可以感知偏振光,这是因为感知偏振光能将它们导航到“想要”去的地方。生物C不可能缺乏与蓝色体验相关的能动性,这样的设定不仅违背生物学常识,还滑向了赫胥黎的意识体验副现象论。副现象论把感知体验理解为生理机能的副产品,但它不会反过来作用于生理机能(cf. Robinson)。这好比影子由物体遮住了光的传播而产生,但影子本身不会对该物体产生因果作用。很显然,副现象论作为身心二元论的变种,与意识科学的主流论调并不相容。
在第二个思想实验里,我们直觉上认为解剖小机器人在道德上不可接受,大概有两种可能性。第一,在想象这个场景时,我们不自觉地继续将有意识的感知体验(而不是能动性)赋予机器人,否则就无法理解机器人母子为何如此歇斯底里地疯狂反抗。所以就算思想实验声称外星机器人没有意识,我们也并不真正相信这一点。第二,这种外星机器人本质上就是大卫·查默斯(David Chalmers)所说的僵尸,哪怕僵尸有能动性,违背它们的想法和意愿也不会影响其内在感受,因为僵尸压根就没有内在感受。所以,我们并非真正相信这样做在道德上是错误的。无论哪种可能性,用塔玛尔·詹德勒(Tamar Gendler)的术语讲,我们“隐信”(alieve)了机器人有意识,或者“隐信”了解剖机器人在道德上是错误的。然而这只是隐念(alief)而非信念(belief),只有“信念”才对证据(机器人没有内在感受)敏感。(cf. Gendler, pp.634-663)
第三个思想实验有两种解读。实验哲学的解读认为,人们关于AI道德地位的直觉只需建立在能动性的基础之上。形而上学的解读认为,如果可以设想一个有能动性但没有感知能力的AI,那么能动性与感知能力在某些可能世界当中确实无关。第一种解读是错误的,实证研究发现,尽管人们关于道德地位的直觉有两个维度,但是“(狭义的)能动性与道德能动性以及责任有关,感知能力则与道德受动性和权利有关”(Gray et al., p.619)。即使前者是道德地位的基础,也不排除后者同样是道德地位的基础。第二种解读承认,二者在形而上学上是可分离的,但是这并不意味着事实亦如此,否则心灵哲学中关于现象意向性的讨论便是没有根据的。现实生物要有能动性,就需要神经系统将身体的各个部分统一整合,这种整合方式会让生物体涌现出主观性和视角性,也就是感知能力。(cf. Godfrey-Smith, 2024, pp.158-160)正如在伽利略之前,人们可以设想物体下落的速度与其重量成正比;然而,由于人们缺乏能动性与感知能力具有关联性的背景信念,尽管我们可以对上述三个思想实验进行理论设想,但实际上它们都有违认知科学的共识。
请注意,批评卡根的这三个论证不等于要我们回到功利主义的感知进路。我们相信,卡根的能动性进路在认识论和伦理学的意义上是成功的。通过有程度区分的能动性,我们可以辨识出不同的物种有不同的道德地位。这是因为感知体验总是私密的,而能动性可以通过行为显露出来,它是我们识别某个实体是否具有心智,以及具有何种复杂程度的心智的指示器。(cf. Bayne, pp.160-180)
因此,更合理的说法是,能动性与感知之间可能存在着一种动态循环反馈、互为因果的关联,这一观点可被称为“共变论题”。感知涉及感受和表征,能动性涉及行动和发起。彼德·戈弗雷-史密斯(Peter Godfrey-Smith)对于二者的关联作过精妙论述:
随着演化的进行,动物成了世界因果路径网络中的一个新的交汇点或枢纽。当动物通过感官获取各种信息时,它成了一个信息汇聚点。当它作为行动的发起者时,它成了一个因果路径的发散点,这些路径向下延伸,并且常常会反馈回来影响动物的感官。(Godfrey-Smith, 2020, p.105)
许多证据表明,生物体若对特定的环境有所偏好,那么多少也能以特定的方式感知到那些环境(cf. ibid.),反之亦然。因为感知亦非无分别的心理状态,它由感知丰富度、评价丰富度、瞬时整合度、历时整合度以及自我意识等多个维度构成。(cf. Birch et al., pp.789-801)有感知的动物有着不同的感知体验画像(profile),这些感知体验画像已将能动性囊括其中。而且感知不是突然出现的,神经科学家已经证明,结构简单的微生物如何通过能动性的升级逐步创造出像人类这样复杂的心智。(cf. Ogas and Gaddam, pp.223-242)由此可见,能动性只是道德地位的必要条件而非充分条件,是感知能力和能动性共同奠定了道德地位的基础。
四、AI缺乏广义能动性
如果共变论题有其合理性,AI这种貌似“有智无感”的异质智能体是否拥有道德地位就变得棘手了。一方面,AI似乎正在逼近智能“奇点”,甚至表现出了“自主性”;另一方面,人们并不看好AI会有感知。根据共变论题,AI无法产生感知的根本原因是它们缺乏与道德地位相关的能动性。AI不仅“无感”,而且“无智”,也就是其缺乏动物通常会有的偏好、欲望、信念和行动能力。
之前我们说过,道德地位在概念上与利益、福利或福祉密不可分。对于有道德地位的实体,你可以裨益或伤害它,这说明有些事物对它来说是好的,有些事物对它来说是坏的,它会享有某些善品或遭受某些恶品(bads)。动物有某种等级的道德地位,因为它们欲求吃饱睡足,因而它们就有饱腹和睡眠的权利,这些事物对它们而言就是善品。人类除了吃饱睡足,还会追求知识、审美以及有意义的人际关系,这些事物对人类而言也是善品。因为人类的能动性高于动物,欲求的事物和试图规避的事物要比动物更多更复杂,所以他们的道德地位也就高于动物。现在我们需要追问,有的动物为何会比其他动物拥有更多更复杂的欲求?换言之,广义能动性是如何出现和升级的?我们的答案是,与环境发生交互作用的集成化身体是形成能动性(也是感知能力)的必要前提。身体越是集成化,结构越复杂,其能动性就越高。
我们知道,即使像细菌这样的简单生物体也具有非均衡的动态结构,它们可以不断地自主生产和维系自身所需的必要组件,这些组件以恰当的方式耦合为集成化的“身体”,通过对外部环境的变化和刺激作出响应与调整,达到内稳态平衡的状态。(cf. Varela et al., pp.187-196)生物体通过自创生的方式构造出可被个别化的身体边界,通过与外界交换物质、能量和信息达到制造、维系和修复自己身体的目的,这便是能动性的“底层逻辑”。随着演化的继续,新出现的生物体不仅有了更大更复杂的身体,它们还是一种全新的存在,进而产生了全新的“自我”。这些生物体发展出了新的行动方式,能够通过肌肉和神经系统实现数百万个细胞之间的协调运动。为了引导这些行动,一种原始的“自我感知”也随之出现:这些生物体开始有了“个体视角”(point of view),能够从个体视角出发施展行动,以此满足更大的、更复杂的身体所需的更多的、更高级的偏好和欲望。(cf. Godfrey-Smith, 2020, pp.103-104)这既是一个事关感知-能动性共变论题的叙事,又是一个事关能动性如何生成和升级的发展过程。
有了这些理论准备,回想一下第一节提及的两组问题。在Q2面前,我们根本不知道如何给出回答,原因就是我们不知道AI拥有怎样的信念和欲望。事实上,AI完全缺乏自主生成的信念、欲望,以及与之相关的行动能力,因为AI缺乏从它所处环境中汲取信息和能量的集成化身体。
我们知道,如果不考虑未来用生物技术制造的AI(那不是通常所说的AI),在现有的工程学框架下,AI的构成要素包括作为硬件基础的处理器和存储设备,作为软件系统的操作系统、编程语言和开发框架,作为数据资源的训练数据和测试数据,以及作为算法模型的机器学习算法和深度学习模型。如果是具身AI,那么还需配备与环境交互作用的实体形态,例如机械结构、传感装置和执行器。所有这些要素以模块化的方式被“组装”在一起,每个要素都可以被独立地开发、维系、替换和升级。而且,AI的软硬件构造总会随着人类设计者和工程师所需的目标进行组合配置。在这个意义上,AI当然缺乏集成化、个别化的身体。
和大多数伦理学家一样,卡根同样认为,道德地位只是针对可被个别化的实体而言的。(cf. Kagan, pp.117-121)集成化、个别化的身体对于道德地位至关重要,不仅因为能动性需要依赖个体视角,而且有利益和福祉可言的实体理应是可数的、可持存的殊相。道德地位事关福利分配,福利分配事关“数人头”,要考虑有多少个受益者或受害者。回想一下类似电车难题这样的思想实验,它们总会向你发难:你确定为了救“一个”人而牺牲“五个”人吗?在英语中,“count”有“数人头”的意思,也有“重要”的意思,只有具体可数的、有集成化身体的实体才有资格获得道德地位。
但是AI不一样。举个例子,你的iPhone手机安装了DeepSeek,这部手机与你的iPad平板电脑,以及你的iMac笔记本电脑分享同一套操作系统和账号体系,彼此之间可以实现数据同步。在这种情况下,试问此刻你有几个DeepSeek?一个还是三个?考虑到你的数据会反馈给深度求索公司,终端设备上的DeepSeek也许只是作为该公司所开发的同一款应用程序类型的“分身”,但是这种分身与母程序之间的形而上学关系又不同于普通的类型与实例之间的关系。比如,每一只具体的华南虎都是华南虎这个物种类型的实例,只有当每一只华南虎都消亡了,这个物种才算消亡;但是只要深度求索公司关停了母程序,你手中的DeepSeek应用程序就算“消亡”了。
也许,AI的本体论形态更接近于大卫·刘易斯(David Lewis)对于“云”的刻画。云由水滴构成,但是一朵云的个别化方式及其边界并不清晰,你甚至很难确切地分辨天空中有一朵云还是有很多云。一朵云(姑且这么说)是整个地球水汽系统的一部分(我们也姑且这么说),它的形态变化也会反馈给地球水汽系统。(cf. Lewis, pp.164-182)正是这种“云形态”的存在方式,使得能够实现“云计算”的AI因其无须依附特定的身体而超脱了实例化的身体,从而实现无限增殖复制。
由于AI的本体论形态不同于生物体,所以不只是我们无法理解AI的欲望和偏好,更意味着AI根本没有欲望和偏好。AI当然能够输出可理解的自然语言,但是AI缺乏真实的“生活世界”或“世界模型”,即使AI告诉你“我饿了”,你也无法理解其中的含义——至少你现在不会给它投喂食物。这不仅因为AI的自然语言输出难以避开“幻觉问题”,还因为它们缺乏与真实环境产生真实互动的集成化身体。AI可以“直接学到了语言,但没有外部刺激或具身经验,相当于能够正确地发送密电文,但自己没有密码本”(赵汀阳,第44页)。哪怕AI与外界产生数万亿次的语元交易,但这种交易的类型也极其有限,只能通过键盘或摄像头将获取的信息转换为电信号。由于AI无法整合任何类似感官模态的信息,因而AI也就无法感知真实的世界。(cf. LeDoux et al., p.833)这些限制导致我们无法确定,AI的需求是更多的数据,还是更为精准的降噪信息;是算力的增强,还是算法的优化;是持续稳定的电力供应,还是与人类价值保持对齐。尽管有时你也无法确定某些动物的需求,但是这种无知不是原则性的。比如,你从野外捡到一只雏鸟,不知道它是植食性的还是肉食性的,但是你至少知道它需要一些食物和水,以及安静、干燥、温暖的环境。与这只雏鸟不同,AI不仅不食人间烟火,而且它从未活在人间。
由此可见,无论AI看似多么智能,但由于缺乏从环境中生长出来的个别化、集成化的身体,也缺乏动物所拥有的能动性(根据共变论题,AI也缺乏感知),所以AI没有道德地位。我们认为动物有道德地位,并不意味着动物的道德地位与人类等同,道德地位会随着能动性(根据共变论题,也随着感知)程度的高低而有等级之分,这符合我们健全的常识。我们之所以不认为AI有道德地位,并不意味着道德上的傲慢和认识论上的无知,因为这就是一个形而上学的事实。
五、余 论
尽管广义能动性进路以及其他任何一种诉诸AI内在属性的辩护模式都无法捍卫AI拥有道德地位,但不可否认,在实践中我们有时仍会倾向于将道德地位赋予AI。一些学者或许认为,任何有道德意义的能动性无须在表面上具备自发的信念、欲求以及真实的感知能力,只需在与他人的互动过程中展现出实践理性或“道义计分”能力即可(cf. Brandom, pp.141-143)。当我们与AI进行交互时,如果确实能够调整和追踪彼此的“承诺”与“资格”,AI就有道德地位。然而我们怀疑,一方面,这种行为主义式的解读是否真的可以忽视AI的内在属性;另一方面,在此情形中,我们虽然赋予AI某种“道德地位”,但至多只是事关“尊重”,而与本文谈及的“福利”问题毫不相关。
此外,一些学者可能会说,如今人类与形态各异的AI一并构成了联合能动者。考虑到“延展心智论题”的合理性,人类与AI的紧密关联早已超越人类与动物的关系,我们只有承认和接纳AI对我们的塑造才能反思自己何以能够作为自主能动者而存在。我们相信,这种说法的确比以往的道德地位关系主义进路更有说服力。然而,承认AI有道德意义,并不等于承认AI有道德地位。正如在康德那里,动物没有道德地位,但是它们仍然可以成为道德考量的对象。这并不是因为动物本身拥有任何权利或内在价值,而是因为人类对自身负有义务,对动物残忍或冷漠必将腐蚀我们的人性。我们已经看到,康德关于“道德地位”与“道德考量”的区分对动物而言并不适用,对AI而言则是恰当的。尽管AI没有道德地位,但这并不妨碍我们对AI仍然具有道德考量的空间。
参考文献
[1]程鹏、高斯扬,2021年:《通用人工智能体道德地位的哲学反思》,载《自然辩证法研究》第7期。
[2]李亚明,2023年:《道德地位的理论与实践研究》,北京:社会科学文献出版社。
[3]孟令宇,2022年:《论人工智能道德地位的三种研究进路》,载《自然辩证法研究》第2期。
[4]唐热风,2023年:《论动物信念》,载《哲学分析》第2期。
[5]辛格,2018年:《动物解放》,祖述宪译,北京:中信出版社。
[6]赵斌、田天增,2024年:《共生视域下的智能机器道德地位》,载《自然辩证法研究》第5期。
[7]赵汀阳,2023年:《替人工智能着想》,载《哲学动态》第7期。
[8]Bayne,T.,2013, “Agency as a Marker of Consciousness”, in A. Clark, J. Kiverstein and T.Vierkant (eds.), Decomposing the Will, New York: Oxford University Press.
[9]Birch, J.,Schnell, A. and Clayton, N., 2020, “Dimensions of Animal Consciousness”, in Trends in Cognitive Sciences 24(10).
[10]Brandom, R., 1994, Making It Explicit: Reasoning, Representing, and Discursive Commitment, Cambridge, Mass.: Harvard University Press.
[11]Chakraborty, A. and Bhuyan, N., 2024, “Can Artificial Intelligence Be a Kantian Moral Agent? On Moral Autonomy of AI System”, in AI and Ethics 4(2).
[12]Clarke, S., Zohny, H. and Savulescu, J. (eds.), 2021, Rethinking Moral Status, Oxford:Oxford University Press.
[13]Davidson, D., 1963, “Actions, Reasons, and Causes”, in The Journal of Philosophy 60 (23).
[14]Dehaene, S.,Lau, H. and Kouider, S., 2017, “What Is Consciousness, and Could Machines Have It?”, in Science 358 (6362).
[15]Dennett, D., 2019, “What Can We Do?”, in J. Brockman (ed.), Possible Minds: Twenty-Five Ways of Looking at AI, New York: Penguin Press.
[16]Dwyer, J., 2011, Moral Status and Human Life, Cambridge, New York: Cambridge University Press.
[17]Gendler, T., 2008, “Alief and Belief”, in The Journal of Philosophy 105(10).
[18]Godfrey-Smith, P., 2020, Metazoa: Animal Life and the Birth of the Mind, New York: Farrar, Straus and Giroux.
2024, Living on Earth: Life, Consciousness and the Making of the Natural World, New York: Farrar, Straus and Giroux.
[19]Gray, H., Gray, K.and Wegner, D., 2007, “Dimensions of Mind Perception”, in Science 315(5812).
[20]Jaworska, A., 2021, “The Grounds of Moral Status”, in Stanford Encyclopedia of Philosophy, URL=https://plato.stanford.edu/entries/grounds-moral-status.
[21]Kagan, S., 2019, How to Count Animals, More or Less, Oxford: Oxford University Press.
[22]Ladak, A.,2024, “What Would Qualify an Artificial Intelligence for Moral Standing?”, in AI and Ethics 4.
[23]LeDoux, J. et al., 2023, “Consciousness Beyond the Human Case”, in Current Biology 33(16).
[24]Lewis, D., 1993, “Many, but Almost One” , in J. Bacon, K.Campbell and L.Reinhardt (eds.), Ontology, Causality and Mind: Essays in Honour of D.M. Armstrong, New York: Cambridge University Press.
[25]Manna, R. and Nath, R., 2021, “Kantian Moral Agency and the Ethics of Artificial Intelligence”, in Problemos 100.
[26]McMahan, J., 2015, “On ‘Modal Personism’”, in Journal of Applied Philosophy 33(1).
[27]Ogas, O. and Gaddam, S., 2022, Journey of the Mind, New York: W. W. Norton & Company.
[28]Robinson, W., 2023, “Epiphenomenalism”, in Stanford Encyclopedia of Philosophy, URL=https://plato.stanford.edu/entries/epiphenomenalism.
[29]Schlosser, M., 2019, “Agency”, in Stanford Encyclopedia of Philosophy, URL=https://plato.stanford.edu/entries/agency.
[30]Sher,G.,2017,Me, You, Us: Essays, New York: Oxford University Press.
[31]Varela, F., Maturana, H. and Uribe, R., 1974, “Autopoiesis: The Organization of Living Systems, Its Characterization and A Model”, in BioSystems 5(4).
文章来源:《哲学研究》2026年第2期