陆幸福:人工智能时代的主体性之忧:法理学如何回应

选择字号:   本文共阅读 1362 次 更新时间:2022-11-02 00:18

进入专题: 主体性   人工智能   法理学   人格尊严   自主决定  

陆幸福  

内容提要:近代以来,人超越于他物的主体性得以确立,其内容包括不可侵犯的人格尊严、自主决定、在社会和政治生活中具有重要性以及基于自身目的利用自然。然而,人工智能已经从以下方面挑战了人的主体性:冲击了人格尊严的基础,削弱了自主决定,降低了人在社会生活中的重要性。因此,亟须法理学基于整体性反思和价值视角予以回应。法理学应采取的立场包括:注重人的道德主体性以彰显其独特性,明确反对赋予人工智能法律人格,坚持对人工智能涉主体性应用的合法性审查。

关 键 词:主体性  人工智能  法理学  人格尊严  自主决定  subjectivity  artificial intelligence  jurisprudence  human dignity  self-determination



作为科技发展的产物,人工智能既造福人类,又给人类带来了前所未有的冲击。在各种冲击之中,最根本的是对人之主体性的挑战。而在现代社会,主体性是人之成其为人的关键所在。若人的主体性在人工智能时代衰微,则现代文明难以存续。法律是守护人类现代文明成果的制度设置,它如何对待此根本性冲击至关重要。法理学是对法律进行整体性反思和价值研究的学科,面对此情此景,法理学责无旁贷,需在澄清主体性内容的前提下,呈现人工智能对人之主体性挑战的具体方面,并进行适当回应。


一、主体性释义


人的主体性在近代之后的确立是人类历史上的重大转折。在此之前,按照当时社会的主流观点,自然被解释成有机体,人仅仅是其中一部分,人与自然的分化并未真正形成,也无所谓何为主体。在人与社会的关系中,尽管不存在作为类的人的主体性问题,但具体的人在近代之前是社会网络中的一个角色,因为某种身份而在社会中被定位,并不存在独立的个体。在人与政治共同体的关系中,古代的人被嵌入共同体之中,独立的政治个体自然无从谈起。因此,在近代之前,主体性问题并未被严肃提出。①根本性的变化发生在近代之后,科学的迅猛发展揭开了自然的神秘面纱,人对自然的依附和盲目崇拜随之消解,自然成为人利用的对象。工商业的发展改变了原先的社会经济关系格局,个人逐渐获得相对于他人的独立地位。而随着封建制和绝对主义相继瓦解,个人在政治上逐步摆脱了依附关系,成为公共权力的最终来源,随之崛起的代议制民主则保障了个人在政治共同体中的独立地位。不仅人作为一个种类,与自然相区分,形成二元关系,作为个体的人亦在社会和政治等层面逐步获得独立性。正是在此进程中,人类相对于自然成为目的,个人在社会和政治中亦成为目的,于是,人同时确立了作为类的主体性和作为个体的主体性。


与人的主体性实践几乎同步,哲学上的主体性理论也渐趋成熟。与古代哲学直接断言世界不同,近代哲学意识到,存在物要被人认识到,必须呈现为人的思维领域中的意识事实,必须以“我的心”“我的意识”作为先在的逻辑根据,也就是必须以主观意识的“自我”作为一切关于对象知识的基础或阿基米德点。在笛卡尔的“我思故我在”那里,“自我”实体是建构全部存在的最不可怀疑的基点。②笛卡尔自己说,我是一个在思维的东西。③斯宾诺莎的总结更为明确,“我思想,因此我存在”这个论断是一个单一判断,它和“我是能思想者”这个论断完全等值。④正是通过将个人自身的思维界定为人的本质特征,并主张世界必须被个人通过思维意识到,笛卡尔在认识论上建立了人的主体性。康德则更进一步,不仅通过分离现象和本体,以先天综合判断重构了人的理论理性,而且基于人在道德上的自我立法,确立了人的目的价值。⑤马克思则从历史观的角度明确了人的主体地位,他认为:“全部人类历史的第一个前提无疑是有生命的个人的存在。”⑥“历史不过是追求着自己目的的人的活动而已。”⑦人的主体性不仅体现在人自身是目的,还表现在人是决定其他存在者的主体,即在各种存在者中居于超然地位。⑧此处所言之人的主体性既包括人作为类的主体性,也包括人作为个体的主体性。下文若无特别说明,主体性皆指人的主体性。


学界对主体性之具体内容有不同界定。哈贝马斯提出,主体性主要包括以下四种内涵:一是个体主义,在现代世界中,所有独特不群的个体都自命不凡;二是批判的权利,现代世界的原则要求,每个人都应认可的东西,应表明它自身是合理的;三是行为自由,在现代我们才能愿意对自己的所作所为负责;四是唯心主义哲学本身。⑨李德顺认为,构成现实主体性的主要内容,是人在主体地位上表现出来的以下特征:人自身的现实结构和规定性;人在其对象性关系和行为中的“为我”倾向;人的主动自为性;自律和他律的统一。⑩如果采取下定义的方式界定主体性,那么就必须找到一个适格的上位种属概念,实属不易。而如果根据哲学理论和社会实践,从若干方面概括主体性的内容,则不仅较为全面,而且更具可操作性。不可否认,前述两位学者提供的内容很有借鉴意义。二者都强调了行为自由,但在其他层面吻合度不高。哈贝马斯重视宏观层面的哲学式观念,而李德顺则将重心置于人自身的规定性及其与外界的关系。两种界定虽然各有千秋,但都无法充分揭示现代情境中主体性的整体面貌。


主体性包含两个层面的内容:一是主体自身何以成为主体;二是主体在与其他事物的关系中居于主导地位。就第一个层面而言,人之所以是主体有其自身规定性特征。首先是不可侵犯的人格尊严。每一个人只要作为人,就具有人格尊严,即便因为犯罪被判处死刑,也应享有人格尊严。这是人作为主体的要件之一,否则人就会变成纯粹的工具而丧失作为主体的资格条件。其次是自主决定。主体意味着人的决定是由自己作出,而非受制于其他人,因此,自主决定是主体性不可缺少的一部分。行为自由是自主决定的外化。如无行为自由,自主决定便仅停留在精神层面而失去实际意义。


主体性的第二个层面,即人与其他对象性事物之间的关系,主要包括下列内容:第一,人在社会生活中具有积极作用。社会是由人构成的共同体,人在社会生活中起积极作用是题中应有之义。因此,从总体上看,人的积极作用无需多言。不过,要将主体性落实到特定人群或者个体,积极作用便值得讨论。如果某个群体或者个人在社会生活中无法发挥积极作用,那么即便其在实践中依然受到尊重,但其内心很难将自己确认为完整意义上的主体,而其他人也会将其视为需要帮助的对象,而非完全独立的主体。因此,立基于主体的完整形象,人在社会生活中发挥积极作用是主体性必不可少的内容。第二,人是政治共同体的根本所在。若讨论人作为类的主体性,人是政治共同体的主体本无疑义。就如同社会,政治共同体由人构成和运作,不管人与人之间的关系如何,作为类的人一定发挥主导作用。不过,在讨论个人的主体性之际,个人和政治共同体之间的关系便是非常重要的议题。个人的主体性在政治共同体中的表现为,个人权利是公共权力的最终来源,公共权力的执行机构由具体的人构成,公共权力的目的在于保障个人权利。公共权力之产生与行使皆离不开个人,个人是政治共同体的根本。惟其如此,个人作为主体才能得到切实体现。第三,人认识并利用自然是基于自身目的。作为主体,人在面对自然的时候应占据主动地位,即相对于其他事物具有超然性。这种主动地位与主体性相匹配,而超然性背后是人在自然之上,人有其目的,并因之利用自然。哪怕在认识自然的时候没有任何功利目的,人也满足了自己的好奇心,这本身构成了一个重要目的。换言之,人的目的指引了人对自然施加有意识活动,主体性在此得到充分体现。(11)


二、人工智能对主体性的挑战


人工智能可分为强人工智能、弱人工智能两种。(12)由于技术方面的原因,强人工智能尚未来临,人类面对的是弱人工智能。不可否认的是,人工智能时代的来临已成事实。人工智能已经进入社会生活和政治运行的各个环节。工业生产、科学实验、日常生活等均可见人工智能的深度介入,选举、立法、执法、司法等领域也不乏人工智能的身影。尽管人工智能给人类生活带来了诸多便利,但就主体性而言,人工智能带来的挑战不容忽视。


(一)人格尊严的基础受到冲击


人格尊严是主体性的关键所在,正是基于人格尊严,主体性才有了立足之地。而人格尊严之所以能够正当存立是因为人的超越性地位。在当前语境中,每个人都是卓尔不群的个体。而之所以如此,是因为每个人都具有理性能力,能够记忆、想象、推理、总结。并不是说一般动物没有智力,而是它们无法达到人这种高智商的程度,无法处理复杂的事务,也无法开发并利用工具。基于理性,人能够认识到自身与其他主体的不同,能够在社会生活中习得荣辱曲直,于是作为独特类别的尊严感由此得以确立。顾名思义,人工智能具有人的某种智能,人工智能虽然仅具有人的部分智能,但已经在很多具体方面超过了人。就特定专项工作而言,如果不涉及情感、价值判断和复杂社会情境,人工智能的处理能力已经远远超出了人类。例如,人工智能的信息存储能力非人类所能企及;在形式推理能力方面,人工智能亦完胜人类。正是因为人工智能具备了人的某些智能,且在实践中展现出强大的应用能力,它与人类的相似程度已经超过了任何其他物种。而人的独特超越性是建立在理性能力的基础上,一旦其他事物能够在此方面与人类相媲美,人的独特地位便受到挑战,至少是部分丧失。(13)由于理性是人格尊严的基础,一旦其亦为他物所拥有,且在某些方面超越了人,那么此物至少获得了具备人格尊严的基础。而作为主体性构成要素的人格尊严必须具有独特性,即为人所独有。与之相对应,人格尊严的基础亦应具有独特性,否则人格尊严自身的独特性存立便无恰当根据。因此,一旦人工智能分享了人格尊严的基础,此基础自身便不再具有本应拥有的独特性,一个合理的推论是:人格尊严因此遭遇挑战。


个体人格尊严是人类人格尊严的具体化。在人类人格尊严受到挑战之际,个体人格尊严无法独善其身。个体相互之间的尊严认同,以对自己和他人的认识为基础。正是因为个体认识到他人与自己一样有思维能力,有感受能力,能够相互交流并形成共识,个体才能够对他人形成认同,认为他人与自己拥有一样的人格,而人们之间的相互认同又为个体的自我认同提供了基础。个体是在与其他人或者物的对比中,形成对自己的地位判断。只有建立起参照系,个体自身形象才能有位置,否则便是一个孤立的存在物,而不是作为真正的主体存在。当个体面对一个不仅具备乃至超越部分自身能力的人工智能,个体便不得不修改原先的参照系,将其添加到其中。参照系的变动意味着个体对自己的判断发生变化。个体会不自觉地在某些方面将人工智能与自己等量齐观,于是个体自身及其他人的独特性便在这种变化中被打破。与之相对应,个体人格尊严不再具有坚实的基础。或许有人会说,个人本来就和其他人共享人格尊严,再加上人工智能亦无妨。然而,这种说法看似很有道理,但并未触及人格尊严的深层基础。如果某个物能够和自己一样,凭什么个体确信自己和同类有超越性地位,将自己严格区分于此物,并认为自身具有独特的尊严?如前文所言,个体对自己的判断建立在比较基础上,一旦在比较中丧失自己的优越性,那么他对自身地位的判断不可能不发生变化。在人工智能作为他者出现,且分享人的本质特征之际,个体将其纳入某种意义的同类之中,自我地位的降低随之而来。超越性的崩坏是个体人格尊严受到冲击的关键所在。即便个体保持了相对于其他非人工智能物的优越性,这种崩坏依然会对个体产生极大冲击,从而内省自己的地位。


(二)自主决定遭遇削弱


自主决定是人之为主体的另一个核心要素,在人工智能广泛应用之际,自主决定在多个层面受到削弱,具体表现在以下三个方面:


第一,人工智能对隐私权的限制导致自主决定不再完全自主。(14)隐私权是个人的生活不受打扰的权利,其核心是个人对生活的自主决定。人工智能对隐私权的限制,最明显的例子是人脸识别的广泛使用。当前,人脸识别在学校、医院、小区、道路、广场、车站、机场、办公楼等各种场所广泛存在应用。可以毫不夸张地说,除非关上自己的家门,否则人就处于各种人脸识别的控制之下。在人脸识别的应用场景中,尽管人看似具有行动自由,毕竟不存在直接的外力干预,但其实人对行动的自主决定已经受到了阻碍。自主决定主要指向自由意志,首当其冲的内容是存在作出其他行为的可能性,即人的行为并不是事先被决定,而需经过自己的选择。(15)虽然人脸识别并未对人的行为设定外在的物理性障碍,但是人无法忽略人脸识别的存在,不得不在作出决定之际将其作为考量的因素。相对于指纹、虹膜、步态等其他生物特征数据识别,人脸识别在本质上可以便捷地通过非物理侵入的方式唯一地确认人的身份,使一个人的行为与其唯一身份的关系得到认定。(16)由于了解人脸识别强大的功能,人们在作出决定之前明知自己的行动将被记录,且该记录将来可能成为在道德上或者法律上对自己有利或者不利的证据。而人脸识别是一种事实性存在,人无法与其对话,也无法改变其状况,唯有在某些行动中被其记录。这就意味着,人脸识别居于行动者之上,成为一种外在的权威性力量。人们在作出决定之际,既无法改变它,也无法挑战它,比较合理的途径是考虑如何使自己的决定及相应的行为与之相协调。于是,人脸识别成为人们作出某些决定的必要考量因素。一般而言,理性的选择是:作出与人脸识别背后的监控者想法一致的决定,以避免将来遇到不必要的麻烦。由此推之,在人脸识别之下,人在作出决定时并不完全自主,至少部分地被事先决定了。(17)由人脸识别的例子可知,人工智能对隐私权的限制,在实质上对人的自主决定产生了负面影响。


第二,信息茧房致使自主决定所需之信息来源单一化。个体之自主决定离不开经由对外界判断形成的信念。虽然信念之正确与否并不能完全左右决定的内容,但信念之存在无疑是决定作出的关键条件之一。没有信念的支撑,个人决定便缺失对具体内容的判断,徒具自由意志的形式。因此,自主决定无法离开信念。而信念之形成离不开外界信息、思维、个体感觉等因素,其中外界信息是关键一环。在当代世界,虽然获取外界信息的方式是多元的,但由于口耳相传的有限性和纸媒逐渐退出主流,网络成为人获取外界信息最主要的来源。网络媒体一般都通过人工智能技术,根据用户的偏好进行推荐,始终让用户读到自己喜欢的信息,从而使每一个用户获得的是某种程度的单一化信息。域外的谷歌、脸书、亚马逊等平台企业存储用户的每一次搜索、每一条推送和每一次购物记录,通过这些不经意间留下的数据,平台可以更好地控制其用户。(18)这就是孙斯坦所言之信息茧房。信息茧房涉及的核心问题是:我们在交流的世界里,只听到自己选择的声音,只听到令我们感到舒适和愉悦的声音。孙斯坦直言,生活在信息茧房里十分舒适,但却将为这种舒适付出造成重大错误的代价,对私人和公共机构来说,信息茧房都可能会变成可怕的噩梦。(19)如果缺乏超强的自觉反思能力,人们便在人工智能营造的信息茧房中无力自拔。其后果是:个人的自主决定受制于人工智能,至少受到部分损害。因为人工智能通过单一化信息推送,左右了人们的信念,而该受控的信念又是人们作出决定的基础之一,由此,所谓的自主决定其实并不自主。


第三,人工智能对特定行为的管控令个体丧失自主决定的空间。人工智能目前被广泛应用于网约车、送外卖等行业。在这些行业中,人工智能所起到的作用已经不再是简单的辅助管理,而是直接管理。以送外卖为例,根据陈龙的调查,平台系统可以在短时间内将订单分配给骑手、计算预计送达的时间、规划配送路线以指导骑手的配送,并在骑手配送过程中提供各种技术协助,从而提升整体配送效率。(20)在骑手配送的过程中,平台系统除了负责指导、奖惩以外,还源源不断地通过骑手随身携带的智能手机以及安装在其中的配送软件收集骑手的数据。(21)在这种直接管控中,人和人工智能之间的关系正好颠倒了原先人和物之间的关系。骑手在工作过程中,明知受到了人工智能的控制,他们仍等待人工智能的派单,期待人工智能给出良好的评价。在骑手心目中,人工智能是上位决定者,它真真切切地决定自己的工作评价和收入。如果没有按照人工智能的安排行事,自己将遭遇不利。骑手虽然是人,但在工作中几乎完全处于人工智能的控制之下。为自身利益的最大化,他们按照人工智能的要求完成任务,接受人工智能的各种评价。这个例子很好地说明,人成了人工智能指挥下的工具,服从人工智能的安排就是人的义务,没有自主决定的空间。其他行业也存在类似的情形,不再一一赘述。(22)


(三)人在社会生活中的地位被降低


社会生活包括工作、家庭生活、社会交往等多项内容,人工智能在当前阶段对工作的影响大于其他方面,因此,本部分主要着眼于从工作层面解释人工智能如何降低了人的重要性。在近代之前的农业社会,虽然耕作主要由人完成,但土地是最重要的资源,劳动的技术含量不高,因此,除了特殊阶段,人力并不显得珍贵。而在小农经济中,人们自给自足,生产和消费形成自循环,人在消费端的重要性也无法凸显。及至近代之后,情况与之完全不同。工业化生产降低了土地的地位,生产技术日益重要,掌握技术的人随之重要起来。与此同时,工业生产的不断扩大和人口的自由流动使得人力自身具有了稀缺性。于是,人作为劳动者显示了前所未有的价值。无消费则生产无意义,消费水平的普遍提升使得人成为市场经济终端的关键所在。正是由于人在生产和消费两端的无可替代性,人在社会生活中的重要性得以确立,而个人在政治生活中的崛起亦以此为基础。然而,当人工智能在生产、流通、管理等环节得到广泛应用,近代以来的情势不再那么稳固,至少从工作层面考虑,人的地位已经发生了变化。


人工智能应用的展开与成效自不待言,此处仅聚焦与人的主体地位相关的人工智能自主工作。在物流行业,以速递为例,计算机视觉、自然语言处理、知识图谱、深度学习等人工智能技术在速递物流产业的仓储、分拣、运输、配送、客服等环节的应用不断深化,(23)已经部分替代了人类劳动。在客运行业,2020年,真正无人驾驶的自动驾驶汽车变成现实。Waymo公司在美国凤凰城正式面向一般公众推出取消安全员的Robotaxi;在国内,广州、长沙、北京等城市开始发放无人驾驶测试许可,为无人驾驶最终商业化开路。(24)在港口作业中,青岛港以智能管理系统实现自动化码头无人、顺势、高效监管,形成了覆盖全作业流程的智能监管解决方案,开创了自动化码头智慧监管新模式。(25)在审计行业,德勤会计师事务所和普华永道会计师事务所相继推出了人工智能财务机器人。(26)凡此种种,人工智能在某些行业替代人已经成了活生生的现实。(27)人工智能自主工作对人而言是革命性的,与非智能的机器生产有天壤之别。与动物和非智能机器不一样,自主工作的人工智能对人的挑战是根本性的。动物和非智能机器都是纯粹的工具,他们不能完整自主地工作,需要人的参与;而人工智能则相反,在程序设定之后,它无需人的干预,即可完成原先只有人才能完成的智力性或者体力性工作。这就意味着,在众多行业,人工智能可以完整地替代人。人在社会生活中享有崇高的地位,与其能够从事一定的工作并作出贡献无法分离。而人工智能对工作的代替将使人,至少是部分人无法获得工作机会,势必影响这部分人的社会作用。虽然人工智能在当前还不至于完全替代人进行工作,但在一定意义上,它已经足以降低人在社会生活中的地位,而且这种情形还在持续发展之中。


三、法理学的回应为什么必要?


主体性是当下法律体系的基石。在宪法中,公民权利部分的内容旨在保障主体性,政治权利、人身权利和财产权利无不如此。政治权利确保作为主体的人发挥在政治生活中的作用,人身权利和财产权利则保障了人在面对公权力时的不可侵犯性,同样意在主体性地位。在民法的基础性概念中,民事权利能力是以人的主体资格作为基础,民事行为能力则以人的理性能力作为根基,民事法律责任是以人的责任能力为基准,这些都是对主体性的具体化;而更为具体的制度设计,包括物权、人格权等均围绕人的主体性展开,物权是人对物的占有、使用、收益、处分的权利,人格权是人作为主体与生俱来的尊严权。刑法虽然以惩罚犯罪为根本目的,但刑事责任能力的确定依然是以人的自由意志为基本依据,这就回到人的主体性。行政法意在规范国家权力的行使,而规范国家权力的目的就在于为人的权利提供制度性保障。民事诉讼法以当事人诉求之合理实现为目的,行政诉讼法以行政相对人之权利救济程序为主要内容,二者均反映了当事人在程序上的主体性,即人作为主体所享有的权利获得国家法律的程序性保障。刑事诉讼法则是规范国家机关追诉犯罪的程序,既确保对犯罪行为的惩罚,也保障犯罪嫌疑人或被告人的权利;对犯罪行为的惩罚意在为人们维持良善的社会秩序,而保障被告人的权利则是将人作为值得尊重的主体对待,二者也都围绕人的主体性展开。既然现行法律制度均以人的主体性作为核心,那么当人的主体性遭遇人工智能的挑战之际,相关法律制度不可避免会受到波及,甚至有些是直接冲击。


(一)主体性遭遇挑战之后的法律体系


尽管法律体系在当前依然比较稳固,并未因为人工智能对主体性的挑战而出现根本性变动,但是,变化已经在某些层面发生。首当其冲的是宪法框架受到一定威胁。虽然当前人工智能在宪法上并未直接构成对公民地位的冲击,但是,人在社会生活中地位的降低将导致其在政治生活中地位的下降,毕竟公民是因为其实在的有用性而在公共权力框架中享有一定地位,近代以来公民的崛起很好地验证了这一点。虽然这种下降过程并非一蹴而就,但公共权力已经悄然发生些许结构性变化。在人工智能可以部分替代人介入公共权力运行和政治共同体保障的情况下,虽然公共权力的最终享有者还是全体公民,但是公共权力的行使和保障将不再像以往那样完全依赖公民,其支撑性力量向人工智能倾斜。公共权力实际行使者的控制能力将借助人工智能得以扩张,而公民力量在此过程中将相应下降。这种变化虽然尚未直接改变公共权力和公民之间的法律关系,但是公共权力实际行使者和公民之间的原有力量平衡正在被打破,对当前宪法框架造成了潜在威胁。


其次,人工智能是否应该享有主体地位成为法律上的难题。在民法上,民事主体的地位预设了人的理性能力,而人工智能恰恰具备某种形式的理性能力,因此是否应该赋予人工智能某种主体地位成为当前重要的争议焦点。在各种观点中,赋予人工智能某种主体地位的呼声不绝于耳。(28)尽管该立场目前尚未成为事实,但如果不进行及时澄清,人工智能享有民事主体地位可能并不遥远。而一旦人工智能真的被法律赋予了民事主体地位,并实际承担了法律责任,那么整个民法的根基将发生动摇。类似的争议也已经发生在刑法领域。这些争议如果持续存在,将很快影响到诉讼法领域,毕竟程序法必然和实体法的基本理论保持一致。


最后,人工智能对人的自主决定之负面影响使得法律责任的制度设计出现内在矛盾。在核心意义上,法律责任的承担以行为人能够运用自由意志即自主决定为前提。“行为人若是完全行为能力人,意志即自由,在私法自治的框架下能够并且必须承受自己行为的法律后果。”(29)法律也正是循此对责任能力进行分类。在民事方面,无民事行为能力、限制民事行为能力和完全民事行为能力的区分以运用自由意志的程度为基础。行为人的民事行为能力不同,同一种行为对应的法律责任便不同。刑事责任能力的区分亦与之类似。不仅如此,即便行为人具备独立的判断能力,但如果其意志受到他人的不当干预,也不能将此情形归于自由意志,(30)行为人的责任承担和一般情况存在根本差别。例如,针对受胁迫而违心作出的行为,民法提供了救济渠道;而刑法则将被胁迫参与犯罪的人界定为胁从犯,减轻其刑事责任。在某些方面,人工智能对人的自主决定即自由意志造成了实质性影响。根据法律责任归结的原理,在此状况中,如果行为人需要承担责任,则其所应承担的责任应该依照其意志受影响的程度予以减轻。然而,这种说法不具有可操作性,因为法律无法对所有的规范对象实施责任减轻。由此,法律责任之承担实际上并未恰当考虑自由意志,进而与整个法律体系原先对法律责任的设计相矛盾。


(二)为什么需要法理学的回应?


人工智能对主体性的冲击已经引起部门法学者的关注,例如民法学界对人工智能作为法律关系主体和法律责任主体的探讨,又如刑法学界对人工智能刑事责任能力的讨论。应该说,这些讨论对推动人工智能和法律的研究具有重要意义。部门法学者一般都试图在实在法体系的内部解决问题,着眼于实在法的技术性问题,具有某个部门法特有的思维定式。而面对人工智能对法律的冲击,部门法学者更多希望在顺应人工智能技术发展的前提下,将其融合到现有的法律体系之中。他们中的大部分人不太关注这种融合性解决方案是否会对人的主体性造成冲击,从而可能将导致文艺复兴以来确立的人本主义在法律中逐渐丧失主导性。换言之,他们考虑的是,赋予人工智能某种主体地位可以解决当前出现的新问题,至于所提出的解决方案是否会导致更深层次的问题,不是考虑的重点。如果任由这种部门法思维大行其道,那么可以预见,在不久的将来,人工智能将逐步在法律中获得一种类似于人的地位。(31)而一旦法律制度固化了人工智能的地位,要进行改变便不再是一件容易的事情,与之相反,在人工智能尚未在法律中获得特定地位之前,进行深入的理论探讨以避免其成为现实,显然更为适宜。鉴于部门法理论无法充分有效应对人工智能时代的主体性变动,法理学的介入便正当其时。法理学虽然和部门法一样都以法律为研究对象,但是与部门法存在显著区别,二者可以相辅相成。诚如雷磊所言,没有部门法学的法理学是空洞的,没有法理学的部门法学是盲目的。(32)


与部门法不同,法理学研究法的一般问题,其内容涵盖法律和法律体系的性质、法律与正义及道德的关系、法律的社会性质。(33)陈景辉进一步限缩了法理学研究的范围,认为法理学包括规范理论和法哲学两个部分,规范理论又包括辩护理论和批判理论,其中批判理论试图揭示出实在法体系在哪些方面没有贯彻道德原则。(34)阿列克西则着重强调了法理学的反思特性。(35)从上述梳理可以看出,整体性反思和价值研究都是法理学的核心内容。而这正是当前人类面对人工智能必须采取的态度。在实践中,人工智能对人的主体性构成了一种总体上的挑战。如果纯粹就事论事,迁就技术的不断发展,那么法律制度就会沦为技术的附庸,而无法从自身固有的规律和价值出发,对人工智能进行有效的调控。此前的技术发展和应用虽然对人提出了一定的挑战,例如自动生产线对产业工人的替代,但是并未从根本上威胁人的主体性。而人工智能则完全不同。对人而言,人工智能是双刃剑。一方面,人工智能扩展了人的能力,将人类从部分体力劳动和智力劳动中解放出来;另一方面,人工智能又对人的现代生存样态构成了实质性威胁。法律规制面对这种前所未有的挑战,需要跳出两种窠臼。一种是技术为王的逻辑,即仅仅强调技术进步而不考虑其可能导致的不良后果;另一种是法律纯粹顺应技术的逻辑,即仅仅着眼于法律如何就事论事地应对技术,忽视法律对技术的实质性规范。这两种思维在当前语境中十分流行。科学界和工业界对人工智能的态度已经很好地为前一种逻辑做了注脚,而一些部门法学者的论点对人工智能相关问题的探讨则反映了后一种逻辑。这两种思维的背后有一个潜在的价值判断,即人工智能的发展将造福人类,无需担忧其带来的挑战。这种判断是对人工智能的一种功利主义式的简单理解,也是片面化的判断。对人而言,主体性至关重要。试想,如果人在世界上没有了主体性,技术进步的意义何在?法律对人工智能的规制又能有多少价值?诺奇克曾经设计过一个感觉机器试验,他试图说明,如果没有人基于主体的生活实践,快乐是没有意义的。(36)人的实践生活本身具有不可替代的价值,而实践生活的要害是人作为主体的生活,而非作为工具活着。因此,针对人工智能对主体性的挑战,借助法理学从更深层次进行价值考量实为必要。


四、法理学该如何回应?


面对全新的人工智能问题,法理学的回应不能仅限于事实分析,需要进入价值层面,这就涉及法理学中的规范理论。不过,规范理论并不仅仅如陈景辉所言的辩护理论和批判理论,还有建构理论,即面对新生事物,在反思的基础上,以价值为目标,对法律进行以价值为导向的建构。虽然此处的建构不是建立具体的法律制度,但是,它也是一种建构,即从价值上建构面对新问题的合理方案。虽然人工智能已经给法律制度带来了变化,但是,就主体性层面而言,法律制度尚未进行全面的回应性调整。此时此刻,需要的不是对现有法律制度的批判,也不是对现有法律制度的一般辩护,而是对如何在法律上应对人工智能的一种反思性价值建构。尽管法理学的这种回应尚停留在理论上,但是理论的力量是不可低估的,彻底的理论可以说服人,并在实践中起到指导作用。我们有责任去架构此时此地之社会文明的法律原理,依此评判法律及其应用,以便通过法律促进社会文明的发展。(37)这就是法理学在人工智能时代的使命。


(一)注重人的道德主体性以彰显其独特性


由于人工智能具有人的部分理性能力,因此,人与人工智能如何区分是一个重大问题。如果仅仅从自主性和事务处理能力这两个方面考虑人工智能和人之间的关系,就会陷入难以澄清的泥潭之中,二者在这两方面无法有效区分。而恰如前文所言,如果人与人工智能难以区分,那么人的独特性便不再,进而人的主体性难以维系。而法律体系正是建立在人的主体性的基础之上,法理学作为对法律现象进行全面反思的学科,必须对此进行恰当的回应。为了彰显人的独特性,捍卫人的尊严,确保人的主体性,法理学不能着眼于强调人的实用性智能,而应该注重人的道德层面的特质,以使人区别于人工智能,真正确立起独一无二的主体地位。


由于当前法律体系将人的主体性作为当然预设隐含于其中,法理学也接受了这种安排,在各类法理学教科书和论著中,罕见研讨主体性的内容。而面对人工智能的挑战,法理学需要突破原先的思维界限,重新讨论主体性,尤其是能够与人工智能相区分的道德主体性问题。道德主体性是指主体能够进行道德推理并依据道德原则而行为。有学者总结了道德主体性的充要条件:作出自由选择的能力,考量应该做什么的能力,在典型事例中正确理解并运用道德规则的能力。(38)而在这些能力中,人工智能可以做到的是自由选择,其他两个能力则超出了其范围。当然,即便人工智能的自由选择也是一种有限度的选择,人工智能是在程序员设定之下作出选择,与人完全基于自身判断进行原初性选择不一样,其只是一种控制之下的选择。考量应该做什么的能力,其实是对行为进行道德判断的能力,即能够对道德上的正确与错误进行判断。人工智能尽管可以被设定作出一些与道德相关的行为,例如提醒司机系安全带,但是,这些行为仅仅是固定程序设计的结果,并非真的内嵌了道德判断。相反,对人而言,道德判断一定是基于内在意识作出的,即人对某个行为的正确与错误有一种内在判断,而非仅仅基于观察者视角的一种规律性考察。这种内在判断的意识是人工智能无法具有的。人工智能作为无生命的物理体,不具备意向能力,无法具有心智状态,无法产生内在的判断。(39)而道德主体性所必备的第三项能力,即正确理解并运用道德规则的能力,也是人工智能无法拥有的。虽然从表面上看,人工智能只要具备阅读能力,就能正确理解并运用道德规则。其实不然,正确理解道德规则在人工智能体上不可实现,道德规则和明确的法律规则不同,要理解道德规则,理解者自身须对道德规则作出价值判断,也就是说,理解者需要具有实践的背景,能够在一种实在语境中对道德规则进行理解,否则理解者无法理解其中的真实内容。而人工智能虽然具有一定的理解和执行能力,但并不是基于实践中形成的价值作出的,而是因为程序的设计。在不具有实践背景的情况下,人工智能无法理解道德规则,遑论进行运用。因此,从总体上看,道德主体性是人工智能无法企及的。


正是因为人作为道德主体性的特殊性,法理学对此应予特别关注,使人的独特性得到充分彰显,避免人与人工智能的混同。具体而言,首先,法理学需要借助伦理学的知识谱系,清晰阐述道德主体性的一般理论和人作为现世唯一道德主体的理由,从理论上确立人作为道德主体的正当性。其次,法理学不可再将人的道德主体性默认为法学共识而不探讨,而是需要将其列为法理学的基本内容之一。在人工智能时代之前,并无其他主体可对人的地位构成真正挑战,即便作为制度设置的法人最终也由人享有权利、承担义务。在人工智能时代来临之后,法理学需凸显人的独特性。道德主体性是确立人之独特性的关键要素,没有理由不成为法理学研究和教授的必要内容。因此,唯有法理学将人的道德主体性问题列入重点讨论的范畴,并写入教科书,法学界对此的关注才能提升,理论对实践的指导意义才有发挥作用的更好渠道。最后,法理学需要基于道德主体性对人和人工智能进行甄别。如果不坚持对人和人工智能的明确区分,当下的法律体系便面临颠覆的危险,而人自身亦将遭遇难以接受的变动,成为与物并列的某种主体。学术界不乏赋予人工智能道德主体资格的呼声,这种观点一旦成为主流,很可能消解人的主体性。(40)法理学需借助有力支点着力区分人和人工智能,以正视听。


(二)明确反对赋予人工智能法律人格


人工智能是否应该被赋予法律主体地位?这在学界颇有争议。有支持者认为,从人工智能的特性分析,其具有独立自主意识的智慧工具属性,享有权利并承担责任的独特特点决定了其具有法律人格。(41)另有支持者提出,法律位格既然来自法律拟制,法律既然可以给团体组织构造出法律位格而出现法人制度,也可以给动物构造出法律位格而出现“动物审判”,那么未来的法律自然可以给智能机器构造出法律位格,只要这一位格拟制能实现相应的法律目的即可。(42)持反对意见者亦不在少数。有反对者认为,机器人更接近于动物而不是法人,赋予其法律主体地位既不可能也不可欲。(43)另有人认为,人工智能并不能获得法律人格,义务与权利的分离彻底排除了人工智能的主体性。(44)从上述观点可以看出,人工智能的自主意识和法律拟制的形式性是支持赋予人工智能法律人格的两个理由;反对者则从必要性和可操作性上予以反对。不过,对人工智能法律人格争议,最需要的是从其对人类主体性的威胁角度予以考虑。主张赋予人工智能法律人格者主要试图解决人工智能因其自主行为导致侵权的责任分担问题。如果纠缠于自主决定和责任分担,很难完全有效反对赋予人工智能法律主体地位,因为总是可提出一些妥协性的解决方案,例如,可以赋予人工智能有限法律人格这种特别法律地位,亦可以资金账户等形式为人工智能承担责任建立基础。真正的要害在于:赋予人工智能法律人格将直接威胁人自身。如果说部门法的思维主要着眼于新兴事物的合理规制,那么法理学就必须从整体性的角度反思人类命运问题,以避免片面的考量危害人类的总体利益。就此而论,赋予人工智能法律人格的问题需要以辩驳的方式进行论证,以澄清其中的争议,得出合理的结论。


赋予人工智能法律人格可在两方面造成对人之主体性的不利影响。第一,人工智能与人将出现法律人格混同,人之主体性因此遭遇法律上的侵蚀。人工智能被赋予法律人格,意味着人工智能在法律中将成为主体,而非作为物被对待。而在此之前,人工智能虽然因其理性能力,对人的主体性构成一定挑战,但被限制在事实层面。虽然这种事实性挑战依然值得警惕,但毕竟还有法律可以对人工智能进行规制,令其主要发挥正面作用。当人工智能在法律上获得主体地位,情形就将发生重大变化。在现代社会,法律是对社会生活起决定性作用的规范。一旦法律确认人工智能的法律人格,人工智能的身份便发生了根本变化,它可以在法律的某些层面和人相提并论,例如都具有责任能力。如此一来,人工智能和人便发生了法律人格混同。正如前文所强调的,超越性是人之主体性的特征之一。人工智能和人的法律人格混同意味着人在法律上相对于人工智能并不具有超越性,从而人之主体性的立足点之一不再成立,由此,人之主体性在法律上将遭遇极大的挑战。第二,如果人工智能被赋予法律人格,人工智能将正当地凌驾于人之上,人的主体性将被进一步削弱。人处于人工智能之下的情形很多,此处以具有管理功能的人工智能为例进行论述。具有管理作用的人工智能对人进行控制是一种既存事实,如果人工智能在法律上是一种工具,则人们虽然感觉到受制于人工智能,但还是会认为其背后的人起到了更大作用,毕竟人工智能因无法律人格而不具有与其职能匹配的主体资格。反过来,一旦法律规定人工智能具有法律人格,那么人们的感受将是人工智能作为主体在进行管理,由此,人们会认为自己低于人工智能,而人工智能则变成了真实的上级;如此一来,由于人们的内心对人工智能地位的接受,人受人工智能的控制程度与此前相比将得到进一步的加深。在此情境中,人作为类,难以感到自主决定,而是真切且制度性地受制于人工智能,人的主体性由此遭到直接破坏。尽管人工智能确实可以发挥各种正面作用,但如果赋予其法律人格将破坏人的主体性,那么这些作用便可忽略不计。因为人若无主体性,人自身的存在便无当前所言之意义,而若人的存在失去真正的意义,则人工智能的工具性价值便丧失存在依据。因此,在人工智能法律人格的问题上,不可本末倒置,必须明确反对人工智能被赋予法律人格。


有人可能认为,上述论述夸大其词,法人具有法律人格,动物在某些国家也享有权利,这些并未动摇人的主体性,因此,赋予人工智能法律人格也不会直接破坏人的主体性。法人实质上是人的一种特殊组合,与人工智能截然不同,不具有可比性;动物则确实与人工智能有类似之处,需要澄清其在法律上的地位,以回应前述质疑。当前法律赋予动物一定的权利,主要是为了保护动物不受虐待,法律并没有赋予动物一种完全的权利。例如,美国纽约州的法律规定不得虐待动物并要求为动物提供必要的物质条件,但是,与此同时,法律既不禁止狩猎、屠宰动物,也不禁止将动物用于实验。(45)无论是从利益论还是意志论视角理解法律权利,动物权利都是残缺的。因此,动物在法律上是被保护的对象,始终在人的控制之下,并不是一个和人并列的主体,不可能对人的主体性构成实质性威胁。人工智能则完全不同,它在众多领域表现出色,甚至远超人类。如果被赋予法律人格,那么人工智能便可与人在法律上位于同列,从事实和法律两个层面对人的主体性造成冲击。动物无论如何都无法造成这种局面。因此,以动物权利为例质疑对赋予人工智能法律人格之反对是无法立足的。


可能还会有人认为,赋予人工智能有限法律人格便可解决其与人的法律人格混同的问题,毕竟这种特定人格和人的完整人格大有区别。不过,这种观点也经不起推敲。滑坡论证在此是一种可资利用的理论。滑坡论证认为,通过一系列中介性和渐进性步骤,我们有(或者将有)理由反对所考量的实践。(46)虽然滑坡论证有其局限,但是就人工智能法律人格而言,该论证有其合理性。如果赋予人工智能有限法律人格,例如责任能力,那么接下来的问题就是,为什么不赋予其完整的人格?如果一开始赋予人工智能经济方面的人格,那么有什么理由不赋予其政治上的人格?通过一系列追问,可以看出,即便赋予人工智能有限法律人格这种妥协性方案看似有吸引力,但其最终却极大地增加了得出令人反对的结果的可能性。(47)因此,借助滑坡论证,从捍卫人的主体性角度考虑,唯一的办法就是明确反对赋予人工智能法律人格,在现有法律框架内解决人工智能带来的法律问题。(48)


(三)坚持对人工智能涉主体性应用的合法性审查


科学是现代的根本现象之一,(49)技术则是科学的应用,作为二者合一的科技大大推动了现代社会的变迁。当今之生产力飞跃性提升、物质富足、生活便利、医疗发达等无不是科技发展的结果。正是基于此,科技在现代社会占据宰制地位。在此背景中,人工智能的研究与应用几乎一马平川,很少遇到约束。当前基本的局面是:不仅人工智能的研究没有受到价值性约束,就连人工智能的应用也少有制约。就后者而言,主流的想法是先用了再说,至于它对社会造成的问题,需要改变的是法律,而不是人工智能。这就是科技宰制下人们对人工智能应用的基本态度。如果人工智能仅仅起到辅助性作用,这种判断其实并无不可。然而,问题在于,虽然人工智能可以在很多层面造福人类,但它也可能反噬人类,其对人类主体性的威胁已经存在于现实之中。因此,法律不能对人工智能坐视不理。由于人工智能将来发展到何种程度尚未可知,法律对人工智能研究的规制尚难以展开,但法律不可无视人工智能的应用。在法理学中,法律和人工智能的关系是法律和科技板块的重要组成部分。法理学的主流观点既强调法律对科技发展的推进作用,也注重法律对科技负面作用的约束。人工智能因为可能对人的主体性构成挑战而与其他科技判然有别,因此需要法律特别规范。


法理学应该采取的立场是,坚持对人工智能涉主体性应用进行合法性审查,此处的合法性审查指就是否合乎现行法律的规定进行审查。由于当前的法律体系以人的主体性为根基,相关法律规定为法律人格的保障确立了边界,因此,对人工智能应用之合法性审查可以尽量避免人工智能在实践中对主体性的威胁。在人工智能之应用的合法性审查中,亟须注意的是两个方面:人工智能既不能妨碍人的自主决定,也不能直接替代人决定关键事项。举例来说,就前者而论,人脸识别技术的使用必须被限定在合理范围,不得对人的一般行动造成不良影响;就后者而言,人工智能不能直接替代法官作出判决便是极佳的例子。(50)在前一个例子中,如果人脸识别对人的一般行动造成不利,便侵犯了法律所保护的人身自由;在后一个例子中,人工智能替代法官审判乃违背了法律关于审判权行使的规定。从这两个例证可以看出,合法性审查确实可以在现有法律框架内大范围消解人工智能对主体性的挑战。不过,一个合理的怀疑是:在人工智能大行其道的当下,对其应用的合法性审查是否能够发挥作用。由于人工智能不仅在一般意义上涉及技术进步,而且事关各国之间的竞争,因此,特定国家对其应用进行约束的力度一般都比较有限。然而,从长远看,只有在一种不损害人之主体性的法律框架内,人工智能才能得到正当应用。因此,合法性审查虽然可能遭遇暂时性困境,但它为人工智能继续向前发展所必需。


五、结语


人工智能对人的主体性的挑战虽然尚处于初级阶段,但已成无法回避的事实。人工智能对人的人格尊严基础提出了严肃挑战;人工智能对隐私权的限制、对信息和特定行为的控制,使人的自主决定遭到了削弱;人工智能在工作等领域对人的替代,则使得人在社会生活中的重要性下降。这些挑战已经对现有宪法框架构成潜在威胁并带来了法律上的难题。部门法思维因其明显的具体问题导向和技术性,无法从整体上对人工智能时代的主体性困境进行反思并提出宏观的解决方案;法理学因其自身特有的整体性、反思性和价值导向而成为适当的切入路径。法理学的回应,首先需强调人的道德主体性,以便明确区分人与人工智能,从而确立人的独特性;其次,需反对赋予人工智能法律人格,以防止人工智能在法律上对人的主体性造成直接破坏;最后,坚持对人工智能涉主体性应用的合法性审查,以便将人工智能的应用限制在不危及人之主体性的合理范围内。法理学的此种姿态与法律应有的保守性相一致。在人工智能时代,法律最需坚守的便是人独有的主体性,从而捍卫自文艺复兴以来逐步确立的人类共同价值。在人工智能依然高歌猛进之际,本文的回应未必具有即时的效果,但在众声喧哗中,反思科技的宰制,守护人自身的价值,至少可以让人停下来思考一下我们将走向何方。


注释:①“中世纪对自然现象缺乏兴趣,漠视个人主张,其根源在于一种超自然的观点、一种向往来世的思想占据支配地位。与天国相比,尘世是微不足道的,今生充其量不过是对来世的准备。教会对天恩灵光所启示的真理拥有绝对权威,与此相比,理性之光则黯然失色。”[英]亚·沃尔夫:《十六、十七世纪科学、技术和哲学史》(上册),周昌忠等译,商务印书馆2016年版,第6页。


②参见贺来:《“主体性”的当代哲学视域》,北京师范大学出版社2013年版,第7页。


③参见[法]笛卡尔:《第一哲学沉思集:反驳和答辩》,庞景仁译,商务印书馆1986年版,第29页。


④参见[荷兰]斯宾诺莎:《笛卡尔哲学原理》,王荫庭译,商务印书馆2019年版,第12页。


⑤“在这个目的秩序中,人(与他一起每一个理性存在者)就是自在的目的本身,亦即他永远不能被某个人(甚至不能被上帝)单纯用作手段而不是在此同时自身又是目的,所以在我们人格中的人性对我们来说必定是神圣的:这就是从现在起自然得出的结论,因为人是道德律的主体,因而是那种自在地就是神圣东西的主体,甚至一般来说,只是为着道德律并与此相一致,某物才能被称之为神圣的。”[德]康德:《实践理性批判》,邓晓芒译,人民出版社2016年版,第163页。


⑥《马克思恩格斯选集》(第一卷),人民出版社2012年版,第146页。


⑦《马克思恩格斯文集》(第一卷),人民出版社2009年版,第295页。


⑧海德格尔的总结入木三分:“如果人成了第一性的和真正的一般主体,那就意味着:人成为那种存在者,一切存在者以其存在方式和真理方式把自身建立在这种存在者之上。”[德]海德格尔:《林中路》,孙周兴译,商务印书馆2020年版,第96页。


⑨参见于尔根·哈贝马斯:《现代性的哲学话语》,曹卫东译,译林出版社2011年版,第20-21页。


⑩参见李德顺:《价值论—— 一种主体性研究》,中国人民大学出版社2020年版,第36-38页。


(11)在人类的实践中,人不仅通过对自然物的支配和控制证明着人在自然物面前的某种自由,而且通过对自然物的改造展现着人类的创造性和自由。参见王春梅:《民事主体的历史嬗变与当代建构》,人民出版社2011年版,第147页。


(12)See John R.Searle,Minds,Brains,and Programs,3 The Behavioral and Brain Sciences 417,417(1980).


(13)参见[意]卢西亚诺·弗洛里迪:《第四次革命:人工智能如何重塑人类现实》,王文革译,浙江人民出版社2016年版,第108页。


(14)笔者并不认为人脸识别一无是处。我国处于转型期,正从原先自给自足的农业经济为主向开放多元的市场经济转变。在此过程中,民众从原先的封闭农村社会走向开放的城市社会,很多观念和行为习惯不能无缝对接,需要面对很多难题。与此同时,经济形势不断变化,民众内心的不安全感比较严重。在此情境下,民众行为的规范化是一个难题,各种犯罪案件必定会批量出现。为了确保社会的有序运行,增强民众的安全感,人脸识别技术的应用有一定的必要性,不过,应用范围是否需要如此广泛则值得商榷。


(15)See Timothy O'Connor & Christopher Franklin,Free will,Stanford Encyclopedia of Philosophy,Jan.7,2002,https://plato.stanford.edu/entries/freewill/(accessed July 5,2021).


(16)段伟文:《人脸识别:“裸奔”时代的我们》,载《商学院》2021年第1期,第120页。


(17)各种人工智能对个人隐私的不正常入侵,已经到了危及个人自治的程度。See Christopher S.Milligan,Facial Recognition Technology,Video Surveillance,and Privacy,9 S.Cal.Interdisc.L.J.295,299(1999).


(18)陈龙:《“数字控制”下的劳动秩序——外卖骑手的劳动控制研究》,载《社会学研究》2020年第6期,第117页。


(19)See Cass R.Sunstein,Infotopia:How Many Minds Produce Knowledge 9(Oxford University Press 2006).


(20)参见陈龙:《“数字控制”下的劳动秩序——外卖骑手的劳动控制研究》。载《社会学研究》2020年第6期,第123页。


(21)当骑手在户外配送的时候,平台系统通过骑手智能手机中的全球定位系统追踪骑手的运动轨迹。当骑手进入室内取餐或送餐的时候,由于室内的GPS信号较差,平台系统转而通过智能手机的无线网和蓝牙继续追踪骑手,并且根据作为传感器的智能手机传输的信息对骑手在室内的行为进行监测,掌握骑手在室内的“一举一动”。陈龙:《“数字控制”下的劳动秩序——外卖骑手的劳动控制研究》,载《社会学研究》2020年第6期,第127页。


(22)到目前为止,大多数金融公司都专注在几个关键领域应用机器学习。首先,它们正在利用人工智能改进对交易对手的信用风险评估;其次,他们用它来保护自己不受公司外部或内部的欺诈和不法行为的伤害;最后,它们正在利用它设计更好的交易策略。See William Magnuson,Artificial Financial Intelligence,10 Harv.Bus.L.Rev.337,348(2020).


(23)参见曾铖等:《新一代人工智能对中国速递物流产业高质量发展的影响研究》,载《南京邮电大学学报(社会科学版)》2021年第2期,第4页。


(24)参见《学术前沿》编者:《无人驾驶的前沿趋势》,载《人民论坛·学术前沿》2021年第2期(下),第20页。


(25)参见《青岛港全自动化码头(二期)投产运营6项科技成果全球首创》,载搜狐网,https://www.sohu.com/a/361709492_276002,访问时间:2021年6月8日。


(26)参见黄琛琛:《人工智能对审计工作的影响研究》,载《会计师》2017年第9期,第55页。


(27)李开复的一个论断似乎不是危言耸听。他认为,人工智能对人类所带来的改变,会超过互联网、超过电、超过工业革命。因为它是渗透到每一个行业、每一个工作,它会在十年之内改变、颠覆、取代50%的人,它会把我们做事的一些方法统统改变过来,所以它比互联网来得更快、影响力更大。李开复:《十年后50%工作将被人工智能取代》,载《智能城市》2017年第5期,第4页。


(28)参见骁克:《论人工智能法律主体的法哲学基础》,载《政治与法律》2021年第4期,第109-121页;郭剑平:《制度变迁史视域下人工智能法律主体地位的法理诠释》,载《北方法学》2020年第6期,第123-133页。


(29)朱庆育:《民法总论》,北京大学出版社2013年版,第272页。


(30)参见朱庆育:《民法总论》,北京大学出版社2013年版,第272-273页。


(31)2017年,欧洲议会通过了一项决议,建议机器人民事法律规则委员会从长远看考虑为机器人建立一种特定法律地位,至少将最先进的自主机器人确立为具有电子人的地位,以便负责弥补它们可能造成的任何损害,并在可能的条件下将电子人格应用于机器人自主决策或独立与第三方互动的情况。European Parliament Resolution with Recommendations to the Commission on Civil Law Rules on Robotics(2015/2103(INL))(European Parliament,16 February 2017) para.59(f).


(32)参见雷磊:《法理学与部门法学的三重关系》,载《河北法学》2020年第2期,第18页。


(33)See M.D.A.Freeman,Lloyd's Introduction to Jurisprudence(Ninth Edition)2 (Sweet & Maxwell 2014).


(34)参见陈景辉:《法理论为什么是重要的——法学的知识框架及法理学在其中的位置》,载《法学》2014年第3期,第67页,第60-61页。


(35)See Robert Alex,The Nature of Legal Philosophy,in Jurisprudence or Legal Science? A Debate about the Nature of Legal Theory 51(Sean Coyle & George Pavlakos eds.,Hart Publishing 2005).


(36)See Robert Nozick,Anarchy,State,and Utopia,42-45(Blackwell 1974).


(37)[美]庞德:《法哲学导论》,于柏华译,商务印书馆2020年版,第22页。


(38)See Kenneth Einar Himma,Artificial Agency,Consciousness,and the Criteria for Moral Agency:What Properties Must an Artificial Agent Have to Be a Moral Agent? 11 Ethics and Information Technology 19,24(2009).


(39)从本体论的角度来看,心智状态与物理存在之间有着本质性的区别。首先,心智状态的一个基本特点是具有意向性,即总是关于对象的;而通常情况下,我们认为,物理性的存在并不具备意向能力。智能机器人也是如此,它无法具备意向能力。其次,心智状态往往不受严格的物理规则的限制,但智能机器人和物理事件一样往往受相应的物理规律的限制。戴益斌:《人工智能伦理何以可能?——基于道德主体和道德接受者的视角》,载《伦理学研究》2020年第5期,第98页。


(40)赋予人工智能道德主体性的观点采取了一种上帝视角。人就像上帝那样,可以对人工智能进行完全的界定和把握。此观点内含一种危险。人工智能在众多智力活动方面远远超越人类,如果确实赋予它们主体地位,有一天它们可能不认可人的主体性。换言之,我们人类接纳了人工智能的主体性,但却无法保证人工智能会认可我们的主体性。如果人工智能不接受我们的主体性,其后果是什么便不难想象。虽然今天还不至于如此,但没有远虑必有近忧。法理学作为基础理论学科,远虑是必须的。


(41)参见袁曾:《人工智能有限法律人格审视》,载《东方法学》2017年第5期,第53页。


(42)参见张绍欣:《法律位格、法律主体与人工智能的法律地位》,载《现代法学》2019年第4期,第63页。


(43)参见冯洁:《人工智能体法律主体地位的法理反思》,载《东方法学》2019年第4期,第43页。


(44)参见冀洋:《人工智能时代的刑事责任体系不必重构》,载《比较法研究》2019年第4第,126页。


(45)See Cass R.Sunstein,The Rights of Animals:A Very Short Primer,The Chicago Working Paper Series,http://www.law.uchicago.edu/Lawecon/index.html(accessed April 23,2021).


(46)See Eric Lode,Slippery Slope Arguments and Legal Reasoning,87 Cal.L.Rev.1469,1481(1999).


(47)See Eugene Volokh,The Mechanisms of the Slippery Slope,116 Harv.L.Rev.1026,1030(2003).


(48)即便从风险防控的角度考虑,滑坡论证也有其用武之地。“如果一旦承认人工智能拥有人的地位,那么再将它视为纯粹的工具,并且在不考虑它的这个地位的基础上,来限制由它引发的风险,这个做法就缺乏正当性上的根据。”参见陈景辉:《人工智能的法律挑战:应该从哪里开始?》,载《比较法研究》2018年第5期,第144页。


(49)参见[德]海德格尔:《林中路》,孙周兴译,商务印书馆2020年版,第83页。


(50)参见宋旭光:《论司法裁判的人工智能化及其限度》,载《比较法研究》2020年第5期,第80页。



    进入专题: 主体性   人工智能   法理学   人格尊严   自主决定  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/137638.html
文章来源:本文转自《比较法研究》2022年第1期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统