刘鹏:如何将机器人安放于人类社会之中? ——一种哲学进路的思考

选择字号:   本文共阅读 2027 次 更新时间:2025-07-16 00:03

进入专题: 机器人   人类社会  

刘鹏  

 

机器人小朵是儿童科幻小说《卧底机器人》中的主要角色,她经历了一场时间更久、难度更高的“图灵测试”,需要在人类的学校中“生活”一整个学年而不被发现真实身份,并最终取得了成功。小说用几句话就能解决可以困扰人类数十年、数百年的难题——小朵下载一个“爱情补丁”,就可以感受到痛苦、嫉妒等情感,而且这种情感是内生性的,是基于算法产生的非算法反应。正是凭借这种“主动性”,小朵通过与人类的互动,逐渐找到其在寄居家庭、学校和社会中的位置。于是,人与机器人各得其所,一种新的社会秩序得以确立。

正如小朵的故事展示的,当任何一种新技术出现时,人类都必须为之在社会中找到一个合适的位置。这一寻找的过程不仅意味着给予技术一处可以安身的物理空间,而且意味着在技术与人类社会协同演进的过程中实现对技术和人类社会的持续性调整甚至重构。然而,因为目前的技术包括机器人技术都缺少科幻小说赋予小朵的这种主动性,所以无法指望技术本身能够完成这类重构性的工作,担负责任的只能是人类自身。

一、虚无与方向:新技术给人类带来了什么?

科学和技术在创造新世界的同时,也在破除着旧世界,而且这种破除伴随着旧秩序的逐渐解体,正是在此意义上,比利时哲学家基尔伯特·奥托瓦(Gilbert Hottois)创造了“技性科学”(technoscience)一词。在奥托瓦看来,技性科学终结一切:它并不是在“沉思”外部世界,而只是关注世界“在技术宇宙中的功能性和可操控性”,打破边界和重构边界成为其核心任务,这就带来了传统本体论的终结;技性科学的创造性打开了各种可能性,继之而来的则是一种极度开放而又极度模糊的未来,前者来自其操作性蕴含的力量,后者则代表着意义的丧失,于是,力量的彰显和意义的退场成为同一过程的两个侧面;技性科学打破的不仅是物的边界,也是人的边界,它不断改变着对人类生死、情感、精神等层面的界定,甚至也在改变着对人本身的界定(如“赛博格”),于是,传统意义上的人也被终结了;既然物与物、人与物的边界被破除,可能性取代了确定性,开放性代替了目的性,那么,传统的伦理学由于“太过人性”,无法应对这种可能性和开放性,故而也就不再适用了。

机器人技术是技性科学的代表,如今已被广泛应用于人类的生产和生活领域,进入家庭也不再是幻想。当然,在机器人技术能否像电力技术一样给人类社会带来一场彻底的变革这一问题上,仿照布鲁诺·拉图尔(Bruno Latour)《法国的巴斯德化》一书的标题,我们可以说世界的电力化,但对世界的机器人化(并不是说人类被机器人取代,而是说机器人彻底重构整个人类社会),现在尚言之过早。不过,机器人技术在与人工智能紧密结合后带来的冲击是显而易见的,这是因为与传统技术相比,智能机器人的学习能力、自主能力、适应能力更强,不论对管理者还是使用者来说都具有更大的不确定性。在此意义上,与一般的技性科学相比,人工智能与机器人技术带来的终结更加彻底。特别是当机器人进入日常生活后,人们首先会对之产生好奇,其后则可能产生恐慌。

面对担忧与恐慌,以本质主义的人性观回避机器人技术的发展不过是一种鸵鸟策略。从人类科技史和产业史的发展历程看,人类对技术的忧虑一直存在,就如同面对火车的出现,有人会说“这对上帝和我都是一件同样不愉快的事情”。面对今天的人工智能和机器人,忧虑之声更甚。这类恐慌尽管表现各异、原因不同,但究其本质,可以分为以下几个方面:对人类生存权的恐慌,如对机器人的使用可能带来的失业问题以及从长远来看的物种替代的忧虑;对人类价值独特性的恐慌,如人形机器人引发的“恐惑谷”效应(尽管人形机器人与机器狗在本质上并无多大差别,但它们给人类带来的情感体验和心理感受大相径庭)以及机器人对原初独属于人类的某些角色的替代导致的价值丧失感;对技术失控的恐慌,如机器人技术本身的不确定性尤其是机器人自主决策能力的提升可能带来的安全恐慌;对社会失序的恐慌,例如人们可能会忧虑资本对技术的滥用,而这种忧虑又在自媒体的语境中被不断放大,此外,数据权利、隐私权等方面的问题也可能引发人们的担忧。当上述恐慌与传统社会结构相耦合,又会产生关于公正公平、群体歧视、公共安全等方面的忧虑。

要有效应对这些恐慌,就必须认识到,机器人进入人类社会,并不仅仅是为人类社会增添了一种新的技术物,而且是增添了一种新的社会角色。这种角色的融入需要社会进行全方位的动态重构,这种重构的最终结果应该是一个容纳了机器人、内部呈现有机结构状态的新社会。要推进这种重构,就必须认清机器人技术可能给人类带来的一系列伦理风险及其根源,而后再采取行动。

二、愿景与悖论:机器人伦理风险的发生机制

技术应服务于人,这是人们的共识。对机器人技术来说同样如此。然而,初衷和目标并不等同于结果,更不能消除在目标达成过程中可能经历的各种波折。要减少乃至规避机器人伦理风险的发生,就必须深刻认识这些伦理风险的发生机制。总括而言,此类风险的发生机制可归结为如下四对矛盾。

第一,认识论困境,即技术的完备性与技术落地应用的急迫性之间的矛盾。英国技术哲学家大卫·科林格里奇(David Collingridge)指出了技术应用的一个困境:技术的社会后果在技术发展的早期阶段难以预料,而当某些负面的后果出现时,技术已经成为经济和社会结构的一部分,对技术的控制将变得异常困难。这进而就产生了一个难题:“当改变轻而易举时,改变的必要性却不甚明了;当改变的必要性显而易见时,改变却又成了一项耗钱、耗力、耗时的事情。”这一困境的根源就在于技术的完备性与技术应用的急迫性之间的矛盾。对机器人来说同样如此,公众对获得机器人服务的渴望、企业对机器人产业化的需求以及国家间机器人产业的竞争,使应用机器人的愿望日益迫切;而机器人装配的智能系统可能会出现幻觉、虚构等问题,其做出的决策建议可能会面临情境适配等难题,特别地,其存在安全漏洞进而遭受黑客入侵可能会带来严重后果。这就导致了技术的完备性与应用急迫性之间的矛盾。

第二,规范落地困境,即对道德机器的美好愿望与道德算法的能力限度之间的矛盾。在医疗辅助、工业制造、家庭陪护等方面,机器人已经开始发挥作用。然而,机器人的行为一旦涉及道德判断,它该如何做出道德选择?事实上,在真正的机器人被应用于工业生产之前,阿西莫夫就在其小说中提出“机器人三定律”,并将之作为规范机器人行为的根本道德准则,此后作为补充又提出了“第零定律”,这些定律在小说中当然发挥了非常好的道德约束作用。然而,小说终归是小说,小朵与人类尽管存在身体构成上的差异,但最终实现了“硅基道德”与“碳基道德”的共存,而这一过程中被快速跳过的部分恰恰是现实中的最大难题。该如何为机器人赋予道德呢?只要我们判断机器人“是否拥有智能的唯一方法是通过其输出或行为进行判断”,亦即只要机器人不存在内在的道德自生机制,那么,我们就只能将人类的道德规范转变为机器人的算法,并试图以此塑造一种“道德机器”,进而实现“价值对齐”。这一方案看起来非常吸引人,但也会面临向谁对齐、如何对齐的难题,前者在同一价值共同体内会面临价值整体性和代表性的困难,在不同共同体间则会面临价值差异性的难题,后者则需应对规则的算法有限解与道德情境的无限多样性之间的矛盾。

第三,权责分配困境,即机器人的行动能力与权利主体及责任主体难以匹配的矛盾。与传统技术相比,机器人具有自主或半自主工作的能力,这使行动与权利的关系变得更加复杂。例如,机器人在数据收集与处理之后才能做出决策,从而对环境做出反应,这些数据并不全然是以规则形式呈现的指令,也可能是通过“感知”系统获得的,这就涉及数据权利和数据隐私的问题,甚至在很多时候会使人们陷入“不让渡则不能使用”的困境。同样,机器人的应用也会面临责任分配的难题。在电影《2001:太空漫游》中,机器人哈尔9000最后杀死了人类宇航员,哈尔该对此负责吗?在机器人已经成为现实的今天,尽管人们通常将自由意志等作为责任主体的基本特征,但只要机器人还感受不到“痛苦”,惩罚也就毫无意义。由此,机器人的权与责及机器人的设计者、管理者和使用者之间的权责关系,同样挑战了传统伦理关系的责任分配模式。

第四,角色实现困境,即机器人的服务角色与人类的主体角色之间的矛盾。技术在本质上通过对人的部分能力的替代或放大,从而实现服务于人的目的。然而,当这种替代或放大发展至一定程度时,可能会导致对人本身的某些角色的替代。此类故事在历史上不断上演,尽管人们每次在面临技术革新时都会喜忧参半,但机器人引发的替代恐慌是史无前例的。从微观层面看,机器人的算法程序在某种程度上可能会蕴含“脚本”特征。这里的“脚本”并非技术术语,而是一个政治术语,它能够以“规约”的方式预设人类的行动方式,由此人们可能会被算法引导乃至“操控”,甚至可以说,“代码就是力量”。在此意义上,服务与被服务的关系发生了颠倒,服务者与被服务者的身份也就发生了对调,于是,古老的政治关系在新技术条件下呈现了新的权力结构。从更长远的尺度看,人们的替代性担忧可能会加深至物种替代的程度。尽管学者们对此看法不一,但许多人认为物种替代不过是个时间问题,就如同《罗素姆万能机器人》的最终结局一样。

三、分立与杂合:人类社会该如何安放机器人?

机器的引入虽引发了卢德运动的反击,但机器最终得以安放于人类社会之中;面对机器人的出现,无视与反对同样不可取。人与技术并非本性对立,亦非天生一致,人与技术和谐关系的达成需要人类付出努力。同样地,机器人在如小朵一样获得自主意识之前也不能完成“认知自己”的哲学任务,因此,认识机器人这一任务的承担者只能是人类,只有认识到这一点,才可能构建出一种和谐的人机关系。要完成这种构建,须注意如下四个方面。

第一,认识论上的谦逊性。从历史来看,科学与技术的确定性只能是一种理想,不确定性才是现实。这就要求我们保持对科学的谦逊态度。牛顿在对科学研究方法的讨论中,明确意识到了归纳问题的存在,但科学和哲学的一个差别就是,哲学总想在找到一个确定、可靠的起点后才开始行动,科学则在行动中不断寻找新的起点。在此意义上,牛顿只是要求我们保持一种认识论上的谦逊,如此才能获得一种更加开放的态度,最终才可能达至一种更优的科学。对待机器人和人工智能同样应该如此。美国通用电气公司通过设想一场有关机器人的噩梦,提出了“谦逊AI”(humble AI)的呼吁:“这对你而言简直就是一场噩梦:被赋予了人工智能的各种机器,变得比其创造者还要聪明,它们接管人类并试图将人类从自身中拯救出来。呜呼哀哉!直至最后,它们才发现聪明并非智慧。面对苏格拉底、亚里士多德以及阿尔伯特·爱因斯坦说过的那句话‘知之愈多,愈知己之无知’,机器嗤之以鼻。机器一意孤行,最终使文明在大家头顶轰然倒塌。”机器人的设计者要保持谦逊,以一种开放的态度制造出更加完美的产品;使用者要以一种反思性的态度对待机器人,对机器人的能力边界始终保持认识论上的敏感。特别需要注意的是,机器人的决策是依据一定的数据做出的,但决策过程可能存在不可解释性和不透明性,这就需要对具体决策的情境适用性做出判断。

第二,价值观上的包容性。机器人有价值观吗?至少目前尚无人类意义上的内在价值观。从技术层面来说,机器人的价值观不过是各种价值规范的数字形态,或者说,它实际上是人类设定的一个规则集合。就此而言,伦理意义上的善恶问题便被转换为对错问题。这进而会衍生三个子问题。一是规则设计问题,机器人遵循的价值规则被转换为设计者的规则,在此意义上,设计者需要秉承一种开放包容的价值立场,考虑到不同文化、不同群体在群体特征和偏好等方面的差异,避免现实社会中的不公正现象延伸到机器人的“意识”中。二是规则遵循问题,规则即便是合理的,也会面临遵循难题。一方面,正如维特根斯坦指出的,即便是单条规则在执行过程中仍然会存在极度开放的认知偏差,这种偏差一旦落实为决策可能会使机器人采取全然不同的行动;另一方面,如果采取增加规则的方式来缩小规则的外延范围,那么就会进一步产生在具体场景中不同规则之间的相容问题,就如同机器人三定律仍然面临执行困境一样。面对后一类问题,设计者需要强化规则的场景敏感性,虽然场景难以穷尽,但就如图灵指出的,人工智能也需要像人一样经历不断学习的过程,尽管就目前的技术进路而言两者的学习机制仍是不同的。三是数据匹配问题,即便规则是合理的,也是可遵循的,仍可能面临数据来源与数据应用的匹配问题。这类问题常常会表现出群体歧视的特征,这种歧视产生于作为数据来源的群体与作为数据应用对象的群体之间的现实差异。例如,医疗机器人的训练数据如果都来自年轻人,那么将这些数据运用于老年人时很可能会发生误诊。由此,事实性的数据由于应用范围超出了其最初的空间边界,故而带来了价值性的后果。要想将价值负面后果转变为价值正面后果,一方面可以通过限定机器人的应用边界,从而减少数据应用扩展的范围,另一方面可以通过增强数据的代表性,从而增强机器人判断与决策的包容性。由此可见,机器人的“心灵”设计是一项高度社会性的工作,在此意义上,“软件工程师将越来越多地成为数字生活世界的社会工程师”。

第三,治理观上的协同性。一方面,与传统技术一样,机器人的功能实现尽管具有开放性,但其可能范围与设计阶段密不可分;另一方面,传统技术的使用往往发生在封闭场景中,换句话说,互动仅仅发生于在场的人与物之间,而机器人则是直接或间接存在于一个更大的技术网络中,这就使人机互动的空间边界发生了扩展,甚至可以潜在地扩展到全球范围。在此意义上,机器人的治理更加需要多元主体的参与,是“健全多方参与、协同共治的科技伦理治理体制机制”的重要组成部分。这种协同不仅发生在宏观领域如政策与行业规范的制定中,而且发生在机器人应用的微观场景中。例如,必须充分重视用户的反馈。传统观点往往将普通公众视为认识论上的无知者,进而忽视其知识的认识论地位,实际上,公众是技术使用的直接参与者,他们在使用过程中形成的知识尽管可能被贴上地方性的标签,但仍然具有重要的反馈价值,对改进机器人在具体场景中的应用能力非常重要。再如,特别是在具备互动功能的社交机器人领域,应以外力强化企业的伦理责任,这是因为企业强化伦理责任的内在动力是不足的。显然,高度负责的社交机器人很可能会被用户视为喜欢“说教”而被弃用,于是,道德底线越低的机器人可能越会受到某些用户的欢迎,这就是为什么各种形式的“AI聊天致死”“AI怂恿杀人”事件时有发生。因此,必须协调企业在“义”与“利”之间的均衡,进而推动企业合理塑造机器人的“义利观”。

第四,伦理观上的开放性。在传统上,伦理学研究的是人与人之间的关系。然而,在人类的个人生活和社会生活都已经被技术深度渗透的今天,必须将技术物纳入伦理学的视野。学界常用非人类中心主义称谓此种伦理学立场。这里的转变不仅仅涉及认识论和价值观,实际上已经涉及本体论层面。人们对机器人是否可以作为道德主体一直争议不断,但从人机关系的角度看,人机双方一直处于互构状态中。人类既是机器人的设计者,也是机器人现实行动的反馈者,因此人对机器人的影响不言而喻,而机器人同样在重构着人,这种重构不仅发生在行为层面,而且发生在认知层面,甚至会潜移默化地发生在价值层面。可以说,“人类正在适应机器,就像机器正在适应人类一样”。一些调查发现,人类开始对机器人甚至机器狗做出情感反应,甚至与类人机器人建立了非常私人的关系。在此意义上,人类不再是有着封闭边界的传统主体,机器人也不再是惰性的客体,两者在人机互动中不断重构自身,都是拟主体和拟客体。按照此种理解,伦理学不仅仅是将机器人纳入对人类伦理关系的理解中,也不再是从主客两端出发分析处于两者之间的人机互动,而是应该从本体论的层面认可人与机器人是同一行动过程的两个产物,承认由中间生发出两极,这是因为,正是互动生发了伦理关系,进而不断地再生着人与机器人。世界原本就是一个“杂合”并且不断“再杂合”的世界,分立的主体与客体不过是一个幻象。由此,伦理学的范围大大扩展,理论与现实之间的关系也更加顺畅。

综上所述,当机器人进入寻常百姓之家时,我们要做的并不是简单地为之布置一个插座以备充电、安排一个空间以供摆放,而是应该推动一种新型人机关系的建立。这种关系的建立势必与那些已经深嵌于人类社会的其他技术物一样,牵一物而动全身,需要我们围绕人机关系构造一种新型的伦理、经济、政治等全方位的关系。由此,虽然诸如机器人之类的新技术带来了虚无,但这不过意味着先定方向的丧失,进而意味着人类应承担更重要的不断重塑方向的责任,“未来远不是我们完全无法掌控的、象征性的存在,而是一种可以被设计和建造的事物”。因此,对待机器人,我们必须“超越批判”,需要在认清新技术可能带来的各类问题的基础上,开启建设性的工作。如同拉图尔所说的,对人类社会中新技术带来的各种“怪物”和各种新型的“弗兰肯斯坦”,要热爱它们,要“像对待我们的孩子一样悉心照料”它们,不能因为技术会犯错就放弃,也不能溺爱技术而对之疏于管教。只有这样,才能在潘多拉魔盒的底部找到希望。

刘鹏,南京大学哲学学院教授、博士生导师

(原文载《中国社会科学院大学学报》2025年第6期,是“笔谈”专栏文章之一,注释从略,全文请见原刊,引用请据原文并注明出处)

    进入专题: 机器人   人类社会  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/165127.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统