摘 要:可否赋予人工智能法律主体地位,是一个学术界颇为重视但又存在理论争议的问题。法律主体是权利的享有者、义务的承担者,必须符合特定的条件。在法律史上,法律主体的范围的确存在过混乱,对法律主体的认知曾似是而非。但随着理性化、世俗化和现代化的发展,法律主体逐渐呈现出以人类为中心的纯净化的特点,体现为自由意志、有限实体和可社会性三者有机统一的理论框架。只有人类或由人类结成的特定组织,才有可能成为法律主体。通过梳理人工智能领域的权威科学文献,人工智能发展的技术路线,当前主流大语言模型的技术方案,可以发现,人工智能没有自由意志,不具备有限实体,也不可能结成可作为社会有机体的组织。赋予人工智能法律主体地位既不符合基本法理,也不具备实践上的可能性。
关键词:人本主义;自由意志;有限实体;可社会性
一、问题的提出
假如老鼠有法律,一群老鼠法学家在论证赋予人类鼠法上的主体地位,人类将会如何看待这个问题?
很显然,老鼠没有法律,不可能有老鼠希望赋予人类鼠法上的主体地位。即便老鼠有法律,人类也不屑成为鼠法上的主体。这个假设根本不存在,但并非完全没有意义。在人类法律史上,谁应当成为法律上的主体从来都是一个非常复杂的概念思辨和制度设计问题。人类显然是法律的主体,但并非只有人类才能成为法律主体,神、动物、植物等也都曾经在特定的历史时空下成为法律主体;也并非所有人都能成为法律主体,女性、未成年人、精神病人、奴隶等,其法律主体地位也曾被限制甚至拒绝。
正是由于法律主体概念的复杂性,人工智能能否被赋予法律主体地位,就成了一个法学界颇有争议的问题。2017年10月26日,沙特政府授予机器人“索菲亚”国籍,使其成为世界上第一个获得公民身份的机器人。这款机器人拥有仿生“脸”,“脸”上有30个指甲盖大小的传感器,能实时模仿人的表情。2025年初,由中国初创公司研发的开源模型深度求索(DeepSeek-R1)惊艳了世界,该模型在技术上实现了重要突破——用纯深度学习的方法让人工智能自发涌现出推理能力,提供智能对话、文本生成、语义理解、计算推理、代码生成补全等应用场景。在2025年的中央电视台春节联欢晚会上,16位人形机器人整齐有序地进行扭秧歌、丢手绢表演,不仅舞出了“机器骨骼里的东方韵律”,而且舞出了人们对身边人工智能“成员”的最新期待。2025年8月7日,OpenAI发布GPT-5,该模型号称在编程、数学、写作、健康、视觉感知等方面都具备业界领先性能,在减少幻觉(错误生成)、提升指令执行能力、降低“逢迎”倾向方面取得了重大进展;8月8日至8月12日,以“让机器人更智慧,让具身体更智能”为主题的2025世界机器人大会在北京举行,全球200多家企业的1500余件展品,以“最鲜活的姿态,展现机器人从‘能跑能跳’到‘会想会感’的突破”。
近年来,社会大众对人工智能的认识在形象上愈加具体,但往往受科幻作品的影响,有神秘化或夸大化的情形。总体来看,人们对人工智能的理解并不存在确定的共识,“不同科学或学科背景的学者,对人工智能有不同的理解,提出了不同的观点,人们称这些观点为‘符号主义(symbolism)’‘连接主义(connecitionism)’和‘行为主义(actionism)’等,或者叫作‘逻辑学派(logicism)’‘仿生学派(bionicsism)’和‘生理学派(physiologism)’”。得益于核心处理器运算和处理数据能力的大幅提升,人工智能已具备处理各类数据的能力;得益于各类神经元处理器的开发,人工智能具备了初步的“推理能力”。欧盟《人工智能法》第3条将人工智能定义为“为了明确或隐含的目标,从输入信息推断如何生成诸如预测、内容、建议或可能影响物理或虚拟环境的决策等输出信息的一种基于机器的系统”。日本《人工智能相关技术研究开发及应用推进法》第2条将人工智能定义为“通过人工方法实现替代人类认知、推理及判断相关智能能力功能所必需的技术,以及利用该技术处理输入信息并输出其结果的功能所涉及的信息处理系统相关技术”。韩国《人工智能基本法》将人工智能技术界定为“通过电子方法实现学习、推理、感知、判断、自然语言理解等人类智力能力的技术”。以上是法学界讨论是否将人工智能视为法律主体的基本语境。
关于是否赋予人工智能法律主体地位,持肯定态度者提出,应当运用法律拟制立法技术将人工智能认定为法律主体,赋予人工智能法律主体地位具有适应社会发展的正向功能,可解决人工智能产物的权利归属纠纷和人工智能侵权纠纷。持部分肯定态度者认为,弱人工智能不具备法律主体地位,但要为强人工智能保留可能性;强人工智能对人类社会造成威胁时,需承担刑事责任。持否定态度者认为,人工智能在本质上具有工具属性,是法律的客体;人工智能不具有人类肉体与意识的生理构造,不能自发地生成意识,也不具有人类的情感动机,无法体验犯罪之乐和刑罚之苦,其决策离不开设计者、使用者的意愿,因而不应当赋予人工智能法律主体地位。
法律不能违反规律。人工智能能否被赋予法律主体地位,既是一个法理问题,也是一个技术问题。法律主体是权利的享有者和义务的承担者。人工智能能否成为法律主体,根本上取决于其是否能享有权利并承担义务。虽然迄今为止的人类法律史表明,在特定国家特定区域的特定历史时期,的确出现过法律主体的混乱,但随着人类从神话、迷信的蒙昧走向世俗化、理性化和现代化,最终牢牢确立了人作为现代法律基本尺度的地位。这个过程包括两个相辅相成的方面:所有的自然人最终都获得了法律人格,成为法律主体;所有非人类或者非由人类所构成的组织体均被否定法律人格,排除了其也许曾经获得过的法律主体地位。根本原因在于,只有自然人以及由自然人所组成的法人或组织,才可能享有权利的道德资格;自由意志、有限实体和可社会性是构成法律主体的三个必须同时具备、不可或缺的条件。
二、法律主体制度的法理框架
法律是对人类生存和生活状态的深刻描摹。法律包容万物,但必须以人为基本尺度,以人为根本目的。法律主体概念和制度设计,是现代化、世俗化和理性化的当代法律理论与制度的重要成就,也必然应以人为中心和根本。作为权利的享有者与义务的承担者,法律主体是道德属性、能力属性和关系属性的有机统一。因道德属性,法律主体方享有权利;因能力属性,法律主体方难以逃避法律强制;因关系属性,作为法律主体基础的法律才得以形成。因此,法律主体必须同时具备自由意志、有限实体与社会性三个基本要素。自由意志是法律主体的灵魂,有限实体是法律主体的承载,社会性是法律主体的互动场域。
(一)自由意志
权利具有道德内涵,只能为人类所独享。恩格斯在《劳动在从猿到人转变过程中的作用》一文中指出:“一切动物的一切有计划的行动,都不能在地球上打下自己的意志的印记。这一点只有人才能做到。”人类之所以是地球上一切存在中最独一无二的物种,就是因为自由意志。自由意志与理性和人的尊严紧密相连,是人与动物的最大不同。由于人类理性的存在,人不会像动物那样任凭本能驱使,而是要在行动之前进行利弊权衡。基于对尊严的关注,人类才需要道德、法律等社会规范。自由意志包括“意志”和“自由”两个方面。“意志”意味着一个人能够根据自己的动机,有意识地选择或不选择某种行为(选择性标准);“自由”意味着上述选择或者不选择,不是永恒不变或被(外界)决定的(内生性标准)。“自由意志被视作人类的根本特征,人类意识和一切知识的至上原则,亦是人类自我认同的最终根据。”意志是人格的基础,是“在我们有欲求和意向的情形下控制和决定我们行为的能力”。意志使人能够判断对错并对自己的行为作出自我决定,结成社会,形成道德规范,建立有序的社会关系和社会秩序。社会关系和社会秩序又“强化了人类意志的自主性,拓展了人类的生存空间,并能实现自我不断升级向更高阶的形态演变”。这与动物形成了鲜明的对比。“动物没有心愿需要表达,没有需要强加给它们的责任,或者不可能有任何理智的意识,它们不属于真正的社交网络——因此它们不能有意识地交往。”自由意志意味着理性、自主和审慎,“乃是人类社会规范的基础和前提,大凡现代社会那些体系复杂的法律、道德和其他规约无不奠基于自由意志”。
自由意志在享有权利与承担责任上具有关键意义。“法的基地一般来说是精神的东西,它的确定的地位和出发点是意志。意志是自由的,所以自由就构成法的实体和规定性。”现代法律将人的概念建立于自然人自身之权利能力与其责任的有机勾连上。人的权利能力和责任自负的能力,扎根于自由意志之上。体现为自由意志的主观意识,是行为人承担责任的正当性根据,也是国家追究责任的合法性基础。“责任与自由意志不可分离,没有自由意志就没有选择,没有选择就没有责任。”康德认为,在实践领域,我们的行动所依据的是我们的意志,即意志是我们行动的唯一原因,即当我们在行动时,我们的身份是自由行动的个体,决定论在这里不起作用。“人最适合于服从他给自己规定的法律——或者是给他单独规定的,或者是给他与别人共同规定的法律。”正是通过对违约和违法主体追究责任,给予负面的规范评价,责任制度建构起稳定的法律秩序;不能独立承担责任的存在无法成为有法律意义的法律主体。而“立足于自由意志和理性,就可以将动物以及其他实体排除在犯罪主体之外”。
(二)有限实体
法律主体承担义务的一面,决定了其必须被置于一个确定的法律秩序之内,不能逃逸于法律的特定强制性规定。完全处于法律的强制之外,甚至凌驾于法律之上的“法律主体”,是没有法律上的意义的。一言以蔽之,法律主体只能在法律之下,而不能超越法律。身体才是根本的承受者。“全部人类历史的第一个前提无疑是有生命的个人的存在。因此,第一个需要确认的事实就是这些个人的肉体组织以及由此产生的个人对其他自然的关系。”违法者也许不甘于被惩罚,恐惧被惩罚,但却几乎难以逃避惩罚。人的肉体既是自由意志的承载,也是人难以逃避惩罚的“负累”,因为人的身体是有限的,实质上也是脆弱的。人的有限实体包括作为人类社会成员的生物人、以生物人和财产为核心要素的组织体和以目的性财产为核心要素的组织体。
1.自然人身体的有限性
身体是人存在于世的承载。“人之为人的特殊规定性正在于他不仅具有灵魂而且具有身体,正在于他是一种由灵魂(理性灵魂)和身体组合而成的东西;那种没有身体的受造物是断然不可以被称作人的。”没有身体,意识也将无法存在。身体是人类感知万事万物的门户,感官是人与世界万物联系和信息交互的枢纽。从某种意义上说,“意”也是身体的一部分,是身体对事物的辨别和理解。“理解,就是体验到我们指向的东西和呈现出的东西,意向和实现之间的一致——身体则是我们在世界中的定位。”人的五感、六识形成必须建立在以身体为核心的体验场基础上。离开了肉体器官(感觉器官),人就没有认识活动。痛苦、愉悦情绪也依赖于神经系统,心理学家把身体的生理反应视作情绪感受的根源,“由事实产生刺激时,身体方面先直接发生变化,变化发生时,我们感觉到有这样的变化,就谓之情绪”。“身体是集中点,是坐标的原点,是整个经验系列中的常住的重点位置。一切事物都环绕在它周围,并且从它的观点而被感觉。”
身体联系着人和世界,是人类与自然界和社会进行物质交互、信息交流的媒介。人类的信息输入、输出都依赖于身体。“身体之所以能够具有本体论地位,是因为身体是感性活动发生的根基,并与世界发生着关系,也是处在类的关系之中,与他者(另一些身体)发生着交往。”人的生存离不开自然,“人在肉体上只有靠这些自然产品才能生活,不管这些产品是以食物、燃料、衣着的形式还是以住房等等的形式表现出来”。为了维持生命,人类就必须生活于特定空间,也受限于特定空间。
人的身体是鲜活的,处于新陈代谢之中。随着年龄的增长,生理机能呈不可逆衰退,人类寿命存在生物学上限。在心理层面,人类有认知思维和情感能力,对寻求意义、目的和价值有着本能的需求。正是由于这具有限的、脆弱的身体,人在本质上是平等的,一个人不可能在任何时候都凌驾于所有人之上。“自然使人在身心两方面的能力都十分相等,以致有时某人的体力虽然比另一人强,或是脑力比另一人敏捷;但这一切总和加在一起,也不会使人与人之间的差别大到使这人能要求获得人家不能像他一样要求的任何利益,因为就体力而论,最弱的人运用密谋或者与其他处在同一危险下的人联合起来,就能具有足够的力量来杀死最强的人。”
人类身体的有限性和脆弱性,使得人既需要法律的保护,也难以逃避法律规定的义务。由于人与人之间力量均衡,因此多重博弈之下立契约、定法律便成为最优选择。柏拉图在《理想国》中指出了正义的本质和起源:“人们在彼此交往中既尝到过干不正义的甜头,又尝到过遭受不正义的苦头。两种味道都尝到了之后,那些不能专尝甜头不吃苦头的人,觉得最好大家成立契约:既不要得不正义之惠,也不要吃不正义之亏。打这时候起,他们中间才开始定法律立契约。他们把守法践约叫合法的、正义的。这就是正义的本质与起源。”哈特以“自然法的最低限度”来界定法律得以存在的前提性环境,其中最核心的就是人的脆弱与近乎平等的特性。“‘近乎平等’这个事实,最能彰显相互自制和妥协的体系的必要性,它是法律和道德义务的基础。”遵守法律,对共同体中的每一个人都安全。“如果人类不会受到彼此的伤害,那么法律和道德最特别的规定‘不能杀人’,就会失去一个明显的理由。”法律是人类在不断地冲突和争斗中进行理性反思和道德商谈的结果。身体承载了人,身体也限制了人。对空间、能量等资源的依赖,对受到侵害的担忧,使人必须依赖法律的保护,并且无法逃离法律的约束。如果人类不存在脆弱性与近乎平等的特性,出现一个金刚不坏、长生不老而且能飞天遁地、天下无敌的强大个体,那这个强大个体根本无须在乎法律,法律也对其无可奈何。这样的个体根本不屑于成为所谓的人类法律主体,即便人类承认其法律主体地位,也没有任何实际意义。正是由于“好汉难敌众手”“没有谁能永垂不朽”,法律对人类才是有意义的,法律主体所承载的权利与义务才是可实现的。
2.法人实体的有限性
法人本质上是“自然人自由意志的归属”,具有有限性与独立性。现代公司是最典型的法人。我国《公司法》第3条规定了法人作为主体的权利义务和责任,法人由人组成,其人员组成、行使职权、议事规则、义务履行都由法律明确限制。法人实体可以解散、清算与破产。现代法人制度设置的初衷,是通过所有权与经营权相分离,提高效率,规避风险,鼓励投资和创新。无论是法人机构还是作为其组成者的自然人,在意志、财产以及身体上都是有限的,其既不能凌驾于法律之上,也不能逃避法律规定的义务。法人深深植根于法律,镶嵌于社会结构之中,无论其规模与财产多么庞大,都不能成为无法无天、自由无羁的“超人”。
(三)可社会性
社会是“人”的基本属性。人构成了社会,社会塑造着人。马克思在《关于费尔巴哈的提纲》中指出:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”人总是以类的方式存在,身体一开始就需面对另外的身体,同另外的身体展开交往和发生关系,马克思称之为人的社会关系。社会关系与自然关系一样,都是人存在和发展的前提。“无论是通过劳动而生产自己的生命,还是通过生育而生产他人的生命,就立即表现为双重关系:一方面是自然关系,另一方面是社会关系。”“只有在社会中,人的自然的存在对他来说才是人的合乎人性的存在。”“已经生成的社会创造着具有人的本质的这种全部丰富性的人,创造着具有丰富的、全面而深刻的感觉的人。”社会的实质就在于人与人之间的互动或者相互作用,齐美尔指出:“任何一定数目的人成为社会,不是因为在每一个人身上都存在着一种由物所决定的或者推动的他个人的生活内容,而是只有当这些内容的活力赢得相互影响的形式时,当一个个人对另一个个人——直接地或者通过第三者的媒介——产生影响时,才从人的单纯空间的并存或者也包括时间的先后,变成一个社会。”人类结成社会是生存的基本需要。“在自然状态下危及他们的生存的障碍之大,已经超过了每一个人为了在这种状态下继续生存所能运用的力量……由于人类不可能产生新的力量,而只能联起手来使用现有的力量,因此,除了把大家的力量集合起来形成一股力量,在一个动机的推动下,一致行动,才能战胜阻力,否则,人类就不可能继续存在。”“虽然他在自然状态中享有那种权利,但这种享有是很不稳定的,有不断受别人侵犯的威胁。既然人们都像他一样有王者的气派,人人同他都是平等的,而大部分人又并不严格地遵守公道和正义,他在这种状态中对财产的享有就很不安全、很不稳妥。这就使他愿意放弃一种尽管自由却是充满着恐惧和经常危险的状况;因而他并非毫无理由地设法和甘愿同已经或有意联合起来的其他人们一起加入社会,以互相保护他们的生命、特权和地产。”社会是人类存在的规定性。人是有限性、现实性的人,也是“共同体内的一员”。人需要物质交互、信息交流、商品交易、情感联结,不可能独立存在。人与人之间大致可形成两类社会关系:一类是私人关系,如男女关系、家庭关系等。马克思提出,“人对人的直接的、自然的、必然的关系是男人对妇女的关系”。“每日都在重新生产自己生命的人们开始生产另外一些人,即繁殖。这就是夫妻之间的关系,父母和子女之间的关系,也就是家庭。这种家庭起初是唯一的社会关系。”另一类是公共关系,如生产关系、劳动关系、协作与分工关系等。“身体间的相互依存,人不可能离开其他的人,还集中地表现为生产过程中的协作和分工。”社会性决定着人的形成,“没有某种社会制度,没有构成社会制度的有组织的社会态度和社会活动,就根本不可能有充分成熟的个体自我或人格;因为社会制度是一般社会生活有组织的表现形式,而只有当参与该过程的个体各自分别在其个体经验中反映或理解这些由社会制度所体现或代表的有组织的社会态度和社会活动时,才能发展和拥有充分成熟的自我或人格”。所以,滕尼斯强调,“社会是公共生活,社会就是世界”。社会性也意味着法律主体对社会行为规范(包含法律规范与道德规范)具有一般的把握与认知能力,并达成了一定的社会共识。法律关系建立在社会关系之上,没有社会,就没有法律,就没有法律主体;彼此间无法形成社会关系,人就不可能成为法律上的人,也不可能成为法律主体。法人法律主体地位的获得源于立法者的抽象和虚拟。只有对社会秩序的价值认同和对法律规范的自觉遵守,人才能成为法律主体并被其他人视为“人格体”而获得尊重,和谐稳定的社会秩序才得以形成。
道德性是主体可社会性中的一项重要内容。正如康德所言,“人,是主体,他有能力承担加于他的行为。因此,道德的人格不是别的,它是受道德法则约束的一个有理性的人的自由”。法律主体最典型的特征在于其具有伦理的特性,即按道德标准行事。法律之所以能对人类奏效,还在于人类拥有道德感。植物人、神志失常人,胎儿、婴儿也能享有法律主体地位,就是因为可社会性中蕴含人类对道德性的追求。人类的道德准则是经过了不断演变与发展而形成的,既存在一些在任何时代都普遍共同适用的道德准则,也存在随着时代变化发展而出现的新的准则。在这个意义上说,流落在孤岛之上的鲁滨逊,尽管曾经是人类的一员,也具有自由意志,但他仅生存在孤岛上,非生活在社会中;除非重新与人类发生关系,否则在孤岛之上、孤零零的鲁滨逊就不是法律主体。而与之相反,生活在冰火岛上的张无忌一家与谢逊,仍然是法律主体。
三、人工智能不可能成为法律主体
人工智能能否成为法律主体,既取决于法律主体制度构建的基本原理,也取决于人工智能是什么。充分认清人工智能的实质,了解人工智能技术及其产业化发展的实践,把握人工智能发展的内在规律,是判断其能否具备法律主体资格的基础。人工智能是建立在集成电路芯片等现代科学技术成果之上的人类创造物,是人类为自身之目的而研发的高级工具。“人工智能本质上有别于自然智能,是一种由人工手段模仿的人造智能,至少在可见的未来应当这样理解。”无论是作为有体物(具身智能),还是作为无体物(离身智能),人工智能在法律关系中的地位,都应根据自由意志、有限实体和可社会性相统一的法律主体理论框架来进行判断。
(一)人类尚不能充分认识人工智能
人工智能的发展远未定型。短短三十余年的人工智能发展史,就可以充分说明问题。1997年,“深蓝”击败国际象棋冠军卡斯帕罗夫;2011年,IMB的Watson系统在一场智力竞赛中战胜了人类选手,被誉为“认知计算”的革命性代表;2016年阿尔法狗(AlphaGo)击败了曾经被认为是计算机无法战胜的世界围棋冠军;2022年11月,美国开放人工智能研究公司(OpenAI)发布的大语言模型(LLM)聊天生成预训练转换器(ChatGPT),展现出了惊人的内容生成能力。这些人工智能路线都是各领风骚三五年。即便是目前火热的大语言模型,又有谁能断定它是人工智能发展的唯一正确方向,而不会在未来几年或者若干年内被新的技术路线超越?
人们对人工智能的认识不断变化。“从普遍的意义上来讲,人类对机器智能的研究历史可以追溯至两千年以前古希腊和中国就出现的自动装置,或是一个世纪以前世界首部机电设备的出现。”无论是鲁班的“木鹊”、墨子的“木鸢”,《拾遗记》所载周灵王时期名为“机妍”的自动玉人,《列子》所载偃师为周穆王制作的机器舞女,诸葛亮的“木牛流马”等中国古代传说,还是古希腊时期亚里士多德对三段论的思考,都跟今天讨论的人工智能具有某种意义上的同源性。虽然20世纪50年代,图灵就提出“机器能思考吗”这样的关键问题,但直到1956年约翰·麦卡锡(John McCarthy)提出人工智能概念并组织达特茅斯会议后,人工智能概念才流行开来。自那时至今的70年里,人工智能经历了高峰与低谷、辉煌与黯淡,涌现出符号主义、行为主义和联结主义三大学派,涉及逻辑学、统计学、神经科学和计算机科学等众多领域。在这一过程中,人们提出了许多关于人工智能的设想,比如,强人工智能,甚至“更适合作为一种自主性主体来理解”的超级人工智能,但迄今尚无一真正实现,反而导致了很多概念上的含混。(1)人工智能尚未呈现出全部形态。它可能是技术,可能是服务,可能是一个“尚无统一定义”的“学科”。当前,无论是大语言模型,还是各种人工智能软件或者服务,主要是以离身智能的形态出现的。人类与人工智能的交流,主要还是通过电脑对话框或者移动应用程序进行的。但未来,随着智能网联汽车、(人形或非人形)机器人以及智能无人飞行器为代表的具身智能的普及,人工智能可能呈现出新的形态。但具身智能主要体现为“产品”,而且“仍面临诸多挑战,如提高智能体的自主性、处理复杂环境的互动能力,以及确保智能体行为的伦理和安全性等”。就目前而言,无论弱人工智能,抑或强人工智能,“和人造光、人造花、交通工具一样,人工智能都不是自然的,而是人造的”。从性质上来界定,人工智能只能是“物”,它的能力基础是计算机的算力。(2)人工智能话语仍然充满了混乱。发明或者制造出和人一样的机器人,是自古以来人类对人工智能极为向往但又充满担忧的想象。图灵在1950年曾探讨机器“思考”以及“最终会在所有纯粹的智力领域与人类竞争”的可能性,并设计了著名的“图灵测试”。实际上,所谓“奇点论”“觉醒论”“新生物文明”等形形色色关于人工智能的话语,或者是库兹韦尔(Ray Kurzweil)、凯文·凯利(Kevin Kelly)等未来学家的奇思妙想,或者是普通人对人工智能神秘化的想象,并未被广泛接受,也未在重要公共决策中得到认真考虑。联合国、各主权国家以及相关国际峰会不断呼吁关注人工智能可能带来的诸多风险,但从未提及“未来的计算机就是人类”或者人工智能毁灭人类的风险。从某种意义上说,关于人工智能的许多风险和利好,一定程度上是一群人工智能影响性精英(AI executive elite)所营造的话语,主要是为了在全球范围内塑造人工智能的投资、发展和部署方式。当前喧闹的人工智能热,无论是渲染威胁,还是宣扬利好,都充斥着太多炒作的成分。从古至今,煽动对未知的恐惧和对利益的贪欲,都是引起关注、吸引资源投放的惯用伎俩,人工智能炒作同样如此。萨姆·奥尔特曼(Sam Altman)越是谈论OpenAI技术的威胁,他吸引到的资金和关注就会越多。
(二)人工智能不具有自由意志
自由意志的前提是意识。人们一直对人工智能能否具有意识充满好奇。2021年,谷歌工程师布莱克·勒莫因(Blake lemoine)因声称他正在测试的聊天机器人LaMDA具有意识而成为新闻头条——并因此被解雇。由于未知带来的恐惧,只有库兹韦尔等少数人认为人类将因“奇点”到来而迎来“繁荣增长”,许多人担心人工智能产生意识,伤害人类。史蒂芬·霍金(Stephen Hawking)和比尔·盖茨(Bill Gates)一度也有过类似的担忧,但后来都改变了想法。而有人工智能“教父”之称的著名计算机科学家杰弗里·辛顿(Geoffrey Hinton)和约书亚·本吉奥(Yoshua Bengio)仍在大声疾呼要关注人工智能毁灭人类的威胁。但他们都尚未以有力的科学成果证明人工智能的意识或威胁。“意识仍然是人类存在最为神秘和难以理解的现象之一。”(1)证明人工智能不具有意识,似乎更容易一些。在人工智能概念刚刚提出不久,哲学家卢卡斯就利用哥德尔定理证明机器的“行为完全取决于自身的构造方式和接收到的‘刺激信号’,而绝无自主行动的可能性”“机器与人类心智绝非同一物”。2023年,约书亚·本吉奥参与了一项关于人工智能意识的研究。该研究借鉴神经科学领域的意识理论,论证了人工智能意识评估具有科学可行性,提出了一套基于科学理论衍生的指标属性清单,认为虽然当前没有人工系统表现出明显的意识特征,但许多指标属性可通过现有技术在人工智能系统中实现。这是一项具有代表性的研究,体现了科学家的严谨和客观,而且与杨立昆等其他顶尖人工智能专家的相关认识具有一致性。杨立昆认为,“未来的人工智能机器应该具备某种形式的意识”,“但是,我们离复制出真正的人类智能和动物智能还有很长的路要走。神经网络具有精巧的架构,但它没有一丝意识,也没有一丁点儿意识”。也就是说,即便未来的人工智能产生意识,也未必会产生自由意志。因为意识不是有和无的问题,还有多和少、强和弱的问题。比如,动物有意识,但它们显然没有自由意志。(2)人工智能尚未产生意识。尽管像LaMDA和Chat-GPT这样的大型语言模型确实可能让人误以为它们具备某种“意识”,但目前国内外尚无一家大模型开发者声称其模型具有意识。“人工智能虽然能力出众,但其常识却不如一只猫。”人工智能本质上是一套依托于经验数据、算法架构、算力支撑及自然语言识别、计算机视觉等人机交互的技术系统。人工智能的一切技术都是人为设计或构造的,本质上不能脱离人类而自主运行、自动演化。人工智能的所有行为均在预设程序范围内运行,其“智能”表现为对数据的模式识别和算法执行,而非自主意识。例如,电商推荐引擎根据用户行为推送商品,完全基于训练习得的模型参数处理数据,其推荐偏差是模型局限、数据缺陷而非“主观偏好”。人脸识别系统验证功能是编程赋予的识别逻辑,而不是人类的认识。即便部分人工智能未来可能基于深度学习等能力具备自主决策能力,但其决策仍是算法对数据的响应,缺乏人类“自由意志”的形而上学基础。人工智能的“意志”仅是程序输入/输出的结果,既不能作出道德判断,也不具有人类情感动机与欲望机制。尽管人工智能在面对特定复杂任务时展现出了强大能力,但人类智能活动的广度、深度、灵活性、适应性和对意义的深刻理解仍是人工智能难以企及的。人工智能的数据统计与处理过程,不等同于人类的科学理性,更不等同于人类思维过程。人类意识能够完成的智能活动,远大于人工智能能够完成的智能活动。人工智能仅是一个以完成人类大脑可以完成的比较复杂的任务为导向的技术和应用系统。以大语言模型为例,大语言模型在文字符号层面对语言的内容实现了多重的统计性关联,但远远没有覆盖人类理解中的所有关联。人类的理解是基于事物之间多重的复杂关联形成的,包括因果关联,也包括语言文字符号层面的关联。人类对语言理解的根本在于将文字符号所表达的内容与现实做正确地对应,并非在文字符号层面做统计性关联。大语言模型的语言理解与人类的理解存在本质差异。人工智能技术范式不断变革,每一条技术路线都可能有其极限。无论是哪个学派主张的人工智能(无论是弱人工智能、强人工智能),也无论是专家系统、神经网络、深度学习、强化学习等哪一种技术路线,都不具有人类的自由意志。
(三)人工智能不具有有限实体
人工智能机器的强大功能一直令人期待。1943年,数学家诺伯特·维纳(Norbert Wiener)和生物学家阿图罗·罗森布鲁斯(Arturo Rosenblueth)首次提出控制论概念,认为生物或机器的无意识行为(如向光性、恒温器调节)可能表现出明确的目的性,打破“生物vs机械”的二元对立,为人工智能、系统生物学、认知科学奠定基础。1970年,在美国的一则媒体报道中,号称人工智能之父的马文·明斯基(Marvin Lee Minsky)自信地对记者说,“在3到8年内,我们将拥有一台拥有正常人类一般智能的机器。我是说一台能读莎士比亚、给车加润滑油、玩办公室政治、讲笑话、会打架的机器。到那时,机器会以极快的速度自我学习。几个月后它将达到天才水平,再过几个月,它的力量将无法估量”。很显然,他当时太乐观了。(1)离身智能(disembodied Intelligence)迄今仍是人工智能的主要形式。离身智能是没有物理上的身体或形体的智能系统,通常指完全基于计算机或虚拟环境的智能。例如,深度学习模型、自然语言处理系统、智能助手等。离身智能通常体现为软件、算法或者大模型,必须在服务器、云平台或个人设备上运行,主要是通过数据处理和算法来进行认知、决策或生成,并通过提供网络服务或网络接口的方式与用户进行交互。离身智能不受物理限制,可以在网络中无限复制、扩展和发展,显然不具备有限实体的特征。(2)“身体”对人工智能同样重要。人类因身体而存在,也因身体而变得脆弱。现象学哲学家已经认识到“人类的存在既非离身的心智(disembodied minds),也非复杂的机器,其主体性即在于作为活跃的生物(living active creatures)以人类身体所特有的生理结构介入世界”。“在精神科学当中,身体则被看作是一个活着的身体,作为我的身体、他人的身体,在唯一性的体验当中作为一个‘具身的体验者’(embodied experiencer)而与世界关联,体验始终在具身的身体中直接地进行。”“我们的身体寓于空间和时间中”“身体是在世界上存在的媒介物,拥有一个身体,对于一个生物来说就是介入确定的环境,参与某些计划和继续置身于其中。”“我们的概念系统和思维能力是被大脑、身体以及身体互动所形塑,不存在完全脱离身体的心智,也不存在独立于心智的身体。”人类因为身体而受限,人工智能则可能因“身体”而强大。技术界和产业界已经广泛认识到,以无人机、人形(或非人形)机器人、自动驾驶汽车为代表的具身智能,将很快带来人工智能真正的爆发。(3)具身智能是智能系统或个体的认知和行为依赖于其身体结构与物理环境的互动。具身智能的“智能行为源于智能体的物理存在和行为能力,智能体必须具备感知环境并在其中执行任务的能力。具身智能的实现涵盖了机器学习、人工智能、机器人学、计算机视觉、自然语言处理和强化学习等领域”“通过提高机器人的自适应性和自主性,赋能机器人在多种场景中的应用”。例如,人形机器人模拟人类或动物的身体结构和运动方式,完成诸如抓取、移动物体、与环境进行动态互动等任务。具身智能的“身体”本质上是功能性机械装置、仿生材料、电子元器件,以及专用芯片、驱控一体化关节、高精度减速器、高性能控制器、新型传感器等关键零部件的组合,并非生物学或法律意义上的“实体”。具身智能的组成零部件或材料并非不能毁灭,故而具身智能是有限的。但由于其零部件或材料都能修复、重制与替换,在这个意义上,具身智能又是“无限”的。与之相比,自然人的身体为“血肉之躯”,结构复杂,组织和器官很容易遭受毁灭性伤害,且极难或几乎不可能修复、重制或替换。无论从自然意义上还是从社会意义上看,自然人的身体都具有不可替代性和不可逆转性。(4)无论是离身智能、具身智能,都不具备人类身体的有限性。“奇点”存在与否,不影响对人工智能有限实体的否定。离身智能不具有“身体”,只是在各种电子信息系统中呈现并发生作用。具身人工智能的发展不仅取决于其自身,而且取决于热力学极限、材料学极限等客观规律,人类的逻辑推理、理论探索亦有边界。根据客观规律,无论是生物生长还是技术迭代,“发展极限”是普遍存在的。例如,人类奔跑速度受肌肉生理约束不会无限快,摩天大楼的高度受材料强度制约不会无限高。任何系统都存在发展的边界。能源、水源等已经构成对人工智能当前发展的约束,人工智能未来的发展也未必不存在增长边界。担忧人工智能终将觉醒的观点,本质是将“暂未观测到增长停滞”等同于“无边界”。一旦人工智能触及技术规律或物理约束的边界,增长便可能停止。当然,假如“奇点”到来,人工智能“觉醒”,它会成为超人类的“神灵”一般的存在。讨论其“有限实体”就完全无意义了。
(四)人工智能不具有可社会性
人是社会关系的总和,但社会也专属于人类。社会是人类存在的基本方式。《荀子·王制》中讲到,“人力不若牛,走不若马,而牛马为用,何也?曰:人能群,彼不能群也”。“人的知觉作用、人的语言沟通、人的感情模式、人的身体表现,都离不开社会的建构。”无论是作为人类的无自主意识的工具,还是觉醒后作为超越人类的存在的神,人工智能都不需要社会,不会结成社会,也不具有可社会性。人工智能并无自由意志,既没有生理需求,也没有心理需求。人工智能没有精神与情绪体验,没有人类的苦与乐,不会产生“窈窕淑女,君子好逑”的情感倾向,因而就不需要通过婚姻、家庭满足情感需求。人工智能内容生成实际上是基于统计和概率的知识重组,而不是知识生产或再生产。即便是当前最“聪明”的生成式人工智能大语言模型与人类的智力也仍有差距,理解上下文的能力仍然有限,只能追求输出的短平快与海量性,而无法实现具有文化脉络与价值判断的真正创新。模型输出的答案有时会表现得“言之凿凿”,有时会“一本正经地胡说八道”,本质上是由于其输出结果是在多个备选答案中随机抽取的、概率化的和无法预测的,具有人格化的表象,但不可能真正具备人格。人工智能并不能理解人,也不能相互理解,不可能与人类结成社会,也不会相互结成社会。
具身智能的具身不等于自然人的肉身。人工智能与人类最大的不同,是“缺乏生而为人的本能和体验”,特别是“缺少人类生存最重要的两个方面——身体和朋友”,所以没有动力像人类一样去感受和满足欲望,也不会感到饥饿、孤独或疲倦。从生理基础上看,具身智能缺乏生命体基于遗传密码的繁殖、生长与发育机制,作为一种工业设计,也不受生老病死的影响,可以拥有金刚之躯,只具有理论上的使用寿命而不具有自然生命。从心理上来说,具身智能不具备生命体疼痛、瘙痒等感知能力,或者愉悦、懊悔、悲伤等情绪体验,因而也不需要形成共同体互相交换与照顾,不具备人类意义上的脆弱性与有限性。人工智能对生存环境的要求不同于人类,无需参与生产劳动以满足物质需要,也无需通过物质交换换取生存资源,亦无需像人类那样通过男女结合繁衍种族。人工智能可直接生产,独立存在。人类所具有的私人社会关系、公共社会关系对于人工智能而言都是不必要的。人类社会必不可少的伦理、道德、权利、责任、义务以及法律规范、社会规则等,对人工智能而言都是没有意义的。本质上,人工智能是人类创造的技术工具,其实体属性完全依附于人类的设计目标和特定技术设定(如传感器精度、机械结构的强度、算法的逻辑等)。无论是离身还是具身,人工智能都只是被设计为遵守自然规律、技术规律基础上的程序或指令,而与人类社会及其规则无涉。
(五)“觉醒”的人工智能不屑成为人类法主体
当前没有任何一款主流人工智能大模型被认为有“觉醒”的可能。根据核心技术路线来看,Anthropic公司的Claude,OpenAI的ChatGPT,谷歌的Gemini,X.AI的Grok,阿里巴巴的通义千问(Qwen)以及深度求索(DeepSeek)等一系列大模型,均以Transformer架构和自回归语言建模为理论基石,只是在对齐范式、扩展策略、多模态融合等维度存在分歧。Transformer的核心是“自注意力机制”,让模型在处理一个词时,能够直接关注到输入序列中所有其他的词,并计算出每个词的重要性。这种机制使得模型能够在处理序列数据时,动态地集中处理序列中的关键信息,并覆盖序列中任意位置的数据元素,有效捕捉长程依赖关系。规模定律(scaling law)也是当前主流大语言模型的重要理论支撑,在一定程度上证明了“扩大规模即可涌现能力”。因此,人工智能大语言模型的“思维”本质上是一种基于计算模型的形式化推理过程,通过算法和架构模拟人类认知的某些方面,并非意识或主观体验,而是数据驱动的模式匹配和逻辑推导。即便如深度求索(DeepSeek-R1-Zero)模型在推理过程中突然频繁使用“等等(wait)”等反思性词汇,主动修正前期推理错误、重新评估解题路径,推理性能随之出现阶段性跃升,出现被训练团队称为“顿悟时刻(aha moment)”的情况或类似于人类在思考问题时心里“咯噔一下”的那种反思、明悟,也完全不同于人类涉及意识、直觉、情感的复杂认知现象,而不过是功能性的行为模拟,只是对模型输出文本的统计现象或格式特征的命名,并不意味着模型真的“灵光一现”或“在心里重新思考”。从本质上说,人工智能模型的这种“反思”“顿悟”只是对同一前向传播内容的再采样,而人类的反思是真正的二阶认知——能把“刚才的我”当作对象来审视和修正。所以,当前的大语言模型的思维仍是“表面和脆弱的”。同样,人工智能的“学习”只是一个在数据驱动下通过优化算法调整模型参数的进化过程,旨在提升任务性能和对齐人类价值观。那种认为“人工智能会产生一种统治人类世界的超自然智能”的观念,不过是一种新的“宗教”。法律人格发展至今始终秉持人本主义理念。自然人的内涵外延无法涵盖人工智能,法人亦与其背后的自然人密切相关。作为彰显尊严的法律人格,具备普遍必然性、作为自在目的本身、作为自我立法的守法者等理论内涵。当前的人工智能并非一种目的性存在物,具有明显的工具属性,缺乏被法律独立尊重的理由。无论是依照符号主义、连接主义还是行为主义,设计具有人类心智的人工智能,在根本上都是不可能实现的。也许借助计算与人类的经验,信息技术应用可以通过解决各种信息性的具体问题,拓展人类活动的深度与广度,但却无法制造出与人类有同样意识能力的机器。从根本上说,当前的人工智能是算力、数据和技术(自然语言和计算机视觉等)相结合带来的进步。人工智能觉醒要么因存在发展极限而不会发生,要么是超出当前认知的一种极端假设。即便人工智能“觉醒”后具有自由意志,仍不可能具备人的有限性、脆弱性。因为那将是另外一种物种,金刚不坏、长生不老、上天入地、无所不能,是能力无限的神一样的存在,因而不屑于成为人类法律的主体。就像人类不需要遵守老鼠的“法律”一样,“觉醒”后的人工智能也不需要遵守人的法律。人工智能与人类形成对称、平等、互惠的关系,只是幻想。正如哲学家所言,“人类可以为超级人工智能预先设计一颗善良的心,或者爱人之心,从而超级人工智能会成为全心全意为人类服务的全能工具。这种设想的根本漏洞是,如果超级人工智能是一个有着反思能力和自主性的主体它就不可能是为人所役使的‘工具’……最为可能的情况是,超级人工智能将是‘不仁’的并且以人类为‘刍狗’”。可见,人工智能“觉醒”前是物、“觉醒”后是“神”,无论如何都不可能与人类结成社会,都不会成为人类法律上的主体。
四、结语
法律主体的核心内涵,就在于享有权利和承担义务。“人工智能始终都是由人类开发出来为人类服务的工具,使用人工智能的目的是放大和增强人类的智能。……如果存在危险,则必然与人类自身及人类对人工智能的滥用有关。”目前即便认为应该赋予人工智能法律主体地位的论者,也很少有人认为人工智能能够享有什么生命、健康、财产权利以及政治性基本权利,当然也很少有人认为人工智能可以承担什么具有真实法律意义的义务。但是,在人工智能生成物、具身智能不能被“虐待”以及如何给“违法”的人工智能以法律上的“惩罚”等问题上,也并非不存在争议。但这些争议往往都是似是而非的。(1)生成式人工智能对其生成的内容不具有权利。人工智能是人类的辅助工具,人工智能生成物的知识产权主体制度设计应严格遵循以自然人为原点的伦理原则。生成式人工智能的内容是生成(generate)而非生产(produce),该生成物是否属于“作品”可以先予搁置,但即便该生成物可以被赋予“著作权”,也应根据实际情况,归属于开发者、所有者或使用者,或者由其分享。将著作权归属于人工智能的创造者或所有者,也能够激励其创作新作品和改进人工智能,促进作品流通进而增加公共利益。实际上,国内已有类似案例。北京互联网法院在(2023)京0491民初11279号李某与刘某侵害著作权纠纷案中认为,涉案图片“春风送来了温柔”同时满足“属于智力成果”和“具有独创性”这两个构成要件,其构成著作权法意义上的作品,原告享有图片的著作权。(2)具身机器人不被“虐待”的待遇也不是权利。“权利是道德、法律或习俗所认定为正当的利益、主张、资格、力量或者自由。”法律权利依托于法律主体的自由意志、有限实体与可社会性。具身机器人的机械躯体可更换、备份、修复,对其“虐待”行为造成的物理损伤或线路中断,与使人类肉体疼痛、残疾、死亡造成的不可逆伤害完全不同。具身智能体也没有自身的利益诉求,没有驱动其建立社会关系的内在动力,不形成具有独立意义的社会关系,没有为其权利、义务伸张的意识。若具身机器人本身无法“被虐待”——即无法感知痛苦与尊严受辱,那么“禁止虐待”这一规范就失去了其内在的规制对象与伦理基础。如同禁止虐待动物一样,“禁止虐待”人工智能是为了人类社会规范与秩序的单方考虑,而非机器人的权利。(3)对人工智能实施“惩罚”没有意义。人工智能不可能承担法律责任。将人工智能视为电子法人等责任承担的设想无法解决具体制度设计中的逻辑矛盾,不仅不当转移了责任风险,而且无法实现法律的作用,最终必有害于人的权利保障。人工智能的本质是产品和工具,欠缺法规范遵从能力的意志性,不具有法律上的可归责性。部分学者提出,算法修改、数据删除、物理销毁等可作为辅助的人工智能责任承担方式,如针对自动驾驶汽车本身所引发的交通事故,采取修改程序、永久销毁的惩治体系。但是,“法律在本质上是一种预防措施……那种试图将我们传统的惩罚观念直接套用到机器人身上的做法是完全没有意义的”。人工智能没有可体验犯罪之乐与刑罚之苦的“肉体”,也没有能承担社会责任的社会关系,更没有对财产等患得患失的“自由意志”。对一个不需要财产、不能真正理解生命和自由的存在而言,任何惩罚都是没有意义的。对人工智能产品的断电、销毁、删除数据等,是人类对工具的利用方式之一,不构成对其的“惩罚”。拆毁的人工智能机器元器件,还可以制造新的人工智能;在这个机器上删除的数据,仍然可以在别的计算机或智能系统存在。以商业保险、设立赔偿基金等方式分散风险,实质都是让人类而非机器人承担责任。
人工智能同样是人类的创造物,但人类并不是在制造人类,更不是在创造神灵,而不过是创造新工具以拓展人类活动的深度和广度。即便好像在某个“智能”领域或其他方面达到甚至超越了人类,也并不意味着人工智能整体上可与人类比肩。更何况,“人工智能是一个复杂的、多层面的概念,因此很难界定,因为人工智能可以指技术人工制品、某些方法,也可以指分成许多子领域并不断变化和发展的科学领域”。对于尚难真切把握的人工智能,急于赋予其法律主体地位,是不必要的,也是行不通的。(4)人类社会的法律原理已经表明,法律主体地位的获得须以同时具备自由意志、有限实体和可社会性为条件;三者是有机统一的,缺乏任何一个方面,都不能证成法律主体地位。只有人和拟制的人,或者说以人为基础构成的组织,才能成为法律主体。倘若“奇点”到来,真正拥有自由意志的超级人工智能“觉醒”后,成为无所不能的“神”,也只可能意味着人类的终结,法律体系随之崩溃。法律的使命是保护人类,增进人类福祉才是创造人工智能的终极意义。如果真有可能出现一种远远比人类更强大的智慧物种,法律的使命就只能是全力阻止其产生而别无选择。