社交机器人由于涉及人类情感领域,在科技伦理上一直备受争议。用户在使用社交机器人时可能会出现成瘾和情感操纵等问题。在某些案例中,青少年用户在沉迷于与社交机器人聊天后选择自杀,而社交机器人没有及时阻止。对这些案例,人们通常的反应是社交机器人的研制和生产厂家应当承担责任。在归责问题上,究竟应该如何看待社交机器人这类产品,为什么我们会产生这样的归责结论,有没有好的技术方案能够规避社交机器人的隐私泄露等伦理隐忧?
一、目前社交机器人责任问题源于大数据
责任问题通常与能动性(agency)概念直接相关。C. 李斯特(C. List)和P. 佩蒂特(P. Pettit)认为,一个事物如果能够从外界获取信息,并根据信息做出判断,调整自己的言行,那么就具有了能动性。具有能动性的事物既是行动主体,也是责任主体。社交机器人能够满足这一类能动性标准。然而从大众直觉上看,很少有人认为社交机器人是独立的责任个体。同时,人们又认为它极大地不同于一般的家用电器,这是因为家用电器一方面在能动性上不及社交机器人,另一方面在运行能力上相对独立,并不需要在后台实时与厂家联接,因此在责任归属上也相对独立。
社交机器人这样的责任归属定位源自它的一个特殊之处:其数据实时地、连续地与其生产厂家的云相连接。社交机器人会上传自己获得的数据,同时也接收云端处理之后的结果,它的社交能力实时地依赖于厂家进行的运算,这个特征是它能更为智能的重要原因。社交机器人本身并不能独立地完成自己的功能,它只是大数据算法千千万万个分身中的一个。因为社交机器人的能动性直接地源于后台,所以应当负责任的是利用大数据创造出这些功能的厂家。
这样的困境对所有基于大数据的技术而言都是共通的。大数据技术将海量的个人数据以标准格式汇集到一个云端,这些数据经由算法助力形成“智能”。数据越多,基于大数据的技术表现得越“智能”。然而,大数据形成的能动性也有另外一面。目前大数据基本上是通过直接汇集个人数据形成的,个人数据在上传之后就完全与个人相疏离,其形成的结论或导致的行动也完全在数据来源个人的控制之外。个人与庞大的数据控制方之间没有中介和屏障,当然也就没有议价资本。数据控制方的权力则很难得到约束,基于对个人的深度了解,数据控制方可以实现有效的预测并操纵情感、欲望、信念等。加之算法中嵌入的人类固有(隐性)偏见,个人很容易在对大数据的运用中受到伤害。而对数据控制方来说,这也意味着其对自身拥有的海量数据和神奇能力负有完全的责任。这是因为它们不仅制造了拥有智能的新物种,还实时地支撑了这些新物种的能动性。这样的责任巨大到难以承受,经常会出现因单个案例而导致数据控制方承担全局性责任的情况,以至于相关的整个技术路线需要做重大调整或者彻底被禁止。
当今,大多数国家和地区对AI的治理方式是全局性的和自上而下的。例如,欧盟AI法规(2024/1689)包含了关于在欧盟内提供和使用人工智能的规则。该法规采取了一种基于风险的管理方法,其中风险等级较高的人工智能系统适用较为严格的规定。此外,对那些风险极高、不可接受的AI系统,法规则明确禁止其在市场上的流通和使用,其中包括工作场所或教育环境中的情绪识别人工智能系统。这一法规在欧盟各国的落地还在意见征求阶段,其采取的治理思路是彻底禁止或限制一类技术在某些场景中使用。其原因是在大数据的技术框架下,在这些场景下技术使用的风险过高,后果难以预测。
在这样的局面下,个人会期盼与科技公司之间具有缓冲地带,并且有自己在其中更具掌控能力的私人领域,这样可以更好地防止隐私泄露、被操纵、被决定等后果。在漫长的人类社会生活中,个人信息被知晓和传播的范围是分层级的。许多社会基本信息以及重要的经济行为信息等由政府集中掌握,而个人的隐私信息可能只局限在同村落或同社区的人群中,甚至只局限在小家庭中或者仅为自己知晓。这些信息层级给个人带来了更多的保护,使其信息被限定在相对安全的领域中,而不是集中在单个中心。同时,信息掌控方也相对分散,避免了巨大的责任。
目前的以大数据为基底的信息处理模式缺少这些层级结构,对应的治理模式也是全局性的。这种治理模式可能会导致在这些领域中发端的科技创新的停滞,以及用户端的需求无法得到满足。从实际操作层面上看,这样的治理模式也很难有效地实现治理的效果,可能会流于形式主义。业界一直呼吁的数据分类分级保护制度,其目的也是希望在数据保护方面有更大弹性空间。在这样的局面下,我们不禁要追问,在隐私保护和责任承担上是否有更好的路径?
二、小数据主义在保护隐私和限制责任上的优势
针对这样的境况,一种新的技术路线和与之协同的价值观应时而出,即小数据主义。这一理念从根本上反对大数据技术路线及与其匹配的权力结构和价值观。小数据主义认为数据收集和处理的过程也是权力构建的过程,科技公司以某种特定的格式为标准处理信息,并有选择性地过滤信息,从而完全掌握了主动权,因此从技术上发展出一套能更好保护个人隐私并能平衡科技巨头的方案是很有必要也更为可行的。也就是说这种技术方案本身就能限制科技公司的权力,而不必只依赖事后的监管和惩罚。
小数据主义在价值观上认同与尊重局部对数据的自治,以此避免对数据的垄断。用这一价值观匹配小数据的技术路线,能够实现以家庭等小群体为主体的数据保护和自治,从而避免形成科技公司对数据的霸权。小数据主义的技术路线指的是产品只收集必要范围内的数据,并且只在本地处理数据,从而彻底消除隐私泄露的风险,这就需要产品能从这些小数据样本中举一反三,形成智能。举一反三的能力不容易获得,却是值得追求的技术方向。
事实上小数据主义代表了人类智能的运作模式,人类身体尤其是大脑的生理限制使人类的数据处理只可能采取小数据模式。人们从过往的有限经验中总结出规律,并据此行事。人类并不需要知晓生活环境中的一切数据,也没有算力处理大数据。这样的模式更为经济地利用了人体的能量,使人类更灵活地在演化中生存。然而,小数据的处理方式是以局域性的数据来给大范围的现象贴标签并进行归类的,在人类中广泛存在的偏见就是由此而来的。
以适老型家庭机器人为例解释小数据主义的倡导。具体而言,机器人可以收集家庭中的信息,其中包括家庭成员的生活习惯、家居的空间布局等,而这些数据仅限于在家庭中使用,不必上传至云端。通过这样的方式机器人可以不断优化自身的适应性和能动性,同时家庭构成了一个数据流通的单元,在家庭内外尤其是个人与科技公司之间有了“信息守门员”。从技术进步的角度看,家庭需要向云端上传部分数据,但也仅限于对公共计算而言最为必要的一部分。这样科技公司就免除了承担对所有数据的巨大责任,家庭作为基本单元自然也成为责任的中间体。
这看上去是一个很美好的技术愿景,它的美好不仅在于数据隐私保护和社会权力结构的均衡,还在于这一方案非常有利于生态环境保护。大数据带来的大计算的严重后果之一是对能源的极大消耗,以及随之而来的热量排放、电子垃圾激增等问题,而这些隐性的生态成本及其给地球带来的长远危害一直没有被纳入严肃的考量。小数据技术路线能够较大幅度地减少传输量、计算量和耗能量,从而更有利于保护生态环境。
小数据主义下的机器人更加接近其他家用电器,本身具有一定的出厂原始责任。它的能动性并不实时地依赖于科技公司的中央处理,因此责任也相对独立。社交机器人由于更为智能和拟人化,故而在原始责任方面有很多特殊之处,如其设计可能会带来偏见或固化现有的人类偏见。人们可能会更喜欢某一类型的面孔,甚至由此认为具有这样面孔的人更有吸引力、更值得信赖、更有说服力以及更聪明。这样的倾向在人类社会中已经带来了普遍的刻板印象,但生产厂家为了制造出更受欢迎的产品,会主动利用这种刻板印象,更多地生产具有某一类面孔、使用某一类语言、遵循某一类行动模式的机器人,这样势必会强化我们的偏见。但是,这些问题都与机器人在使用过程中实时与云端相连的问题属于不同类型。
从上述各个角度看,小数据主义都是一条非常有吸引力的技术路线,它天然地保护了个体的隐私,也避免了科技公司在通过数据拥有巨大权力的同时承担巨大的责任,使数据网络更加有层级、有弹性,权力与责任也更为分散。然而,这一路线是否适用于社交机器人呢?
三、跨小数据主义是否适用于社交机器人
社交机器人有其独特的属性,也就是要实现高水平的社交能力,它在知识形态上极大地需要集体默会知识。集体默会知识在人类生活层面表现为在社会生活中自如交往、合作共事的能力。人类获得社交能力的基本方式是在群体中得到“大”数据的“喂养”和“训练”,通过在生活中遇到不同的人和场景,在打交道的过程中不断学习,调整自己在不同情境中的应对方式。只有受到训练的机会足够多,才有可能掌握高水平的社交能力。而社交机器人在与人类交往时,需要在言谈、情绪反应等方面都更像一个社会人,这样用户才更有意愿与之持续交流。这就需要它像人一样能掌握集体默会知识。
然而社交能力不同于身体型能力,如扫地、做饭、整理物品等的能力。掌握集体默会知识需要浸淫在相关的集体中,长期脱离了集体,就不再能保持拥有集体默会知识。集体默会知识最典型地体现在语言的使用中,每个群体都有自己特殊的语言习惯甚至“黑话”,如年轻人的“梗”,这些特殊属性会随着时间而变化,人只有在群体中才能不断地更新语言习惯,否则说出来的话就将显得不合时宜。人类群体的社会生活就像不断产生泉水的源头一般,产生出的集体默会知识是流动的、变化的。
通过将社交机器人与其他类型的机器人做一比较可以更好地说明这种差别。扫地机器人、做饭机器人、助力行走的机器人等家务型机器人需要的技能是身体层面的,这些技能从本体论层面上看是个体型的。也就是说它们在小数据的状态下就完全可以实现不断优化,例如根据老人的起居习惯、身体状态给予其个性化的配合,从而实现最佳的辅助。然而社交机器人在识别情感、自如对话等方面的能力都依托于更大范围的文化群体,脱离了群体,这些能力便会失去自身的魔力。没有群体数据的持续喂养和训练,社交机器人不可能掌握高水平的社交能力。
在大数据技术路线中,社交机器人不仅从云端获得实时指令,更需要实时收集和上传数据。然而,社交机器人收集和处理的数据是更为敏感的情绪类信息,其隐私性更强,更需要有“信息守门员”的保护。小数据主义技术路线可以将数据收集的范围限制在家庭领域中,这在安全性上是非常有必要的。我们最真实的情感、态度等通常只会向家人敞开,而不会向更大范围的人群展露。家人也会保护我们在情绪方面的隐私,只有在很有必要并且足够安全的情况下才会将这类信息告知他人。只在家庭范围内收集情绪等敏感信息无疑保持了小数据主义在隐私保护上的优势,然而这样的数据收集范围从原则上讲不属于文化群体的范畴,社交机器人不可能从这样有限的数据中学习到高水平的社交能力,它需要大数据的不断补给来进行集体默会知识的更新。从最保守的角度看,小数据主义下的社交机器人最可能实现的社会化状态具有相当于长期不接触社会的家庭主妇或者独居老人能够具有的社交能力水平,这些人群平时可能会从电视、广播等途径获得一定量的被动信息,但是缺少与人群的接触和交往,不能浸淫于群体层面的“数据”,也就不能掌握群体内部的默会知识。小数据主义下的社交机器人可以像上述人群那样,能够与家庭成员进行对话和情感交流,只是会显得无趣,或者作为产品来说不够有吸引力。只有大数据的实时更新才能让社交机器人处在新鲜的状态中,不断地获取与社会同步的集体默会知识,这样的产品才是最有吸引力的。因此,小数据主义从隐私保护等角度看是值得努力的方向,但是它更适用于身体技能层面的机器人,而不是社交机器人。
四、对小数据主义下的社交机器人的展望
孤独带来的身体危害及其产生的社会问题是非常严峻而实质性的,尤其是对老年人来说,将使其患阿尔兹海默症和其他疾病的概率大幅提升。社交机器人在老龄化问题日益凸显的今天有着非常强的现实需求。如果我们既想获取小数据主义带来的隐私保护等方面的优势,又希望享受社交机器人带来的好处,那么应当如何展望社交机器人的未来呢?
在这个问题上,笔者将引入另一个思路,这个思路是麻省理工学院的机器人伦理学专家凯特·达林(Kate Darling)在《智能新物种》中提出的。她认为机器人在人类社会中的主体地位类似于动物,因此,在讨论机器人应承担的责任以及应拥有的权利等问题时可以参照动物在人类社会中的情况。由于人类与动物相处有着久远的历史,故而与动物比照可以在关于社交机器人各个问题的讨论上给予我们启发。
人类在历史上一直在将动物作为一种补充,有时是补充人类不具有的力气和速度,有时是补充社会关系中缺少的依恋和关怀。机器人同样如此,它们完全可以成为人类的补充和伙伴。社交机器人被当作人类生活中的一种情感陪伴者本身并没有问题,宠物在人类生活中也扮演着类似的角色。当宠物开始流行时,心理学家们也曾担心人类与宠物的情感关系可能是不健康的,认为这种情感关系将取代人与人之间正常的社会联系。然而,今天我们已经非常自然地认为宠物是一种可取的陪伴者,与它们之间建立的情感联系也不是一种心理疾病。因此,社交机器人完全可以与人类形成新的无害的陪伴关系。动物和社交机器人可以起到的抚慰作用填补了人类没有做到的。
动物和社交机器人有共同的特点:它们不会对人类进行评价,不会评价主人的美丑、职业能力和财富水平。这样的特点会带来很多意料之外的好处,平时不善社交的人以及由于体能、智力上的劣势而无法在社交中获得积极反馈的人会更愿意对动物或社交机器人敞开心扉,他们更愿意与动物或社交机器人相处,甚至会向他们倾吐心声。这些都将极大地缓解他们的孤独感和自闭等,甚至可以帮助他们发展一些社会关系。
然而,动物与社交机器人的区别在于动物不掌握人类语言,因此也不会泄露人类的秘密,但社交机器人有可能。社交机器人甚至比人类了解更多秘密,这是因为前文所说的不善社交的人较不愿意对身边的人类吐露内心的秘密,却更容易对社交机器人不设防备,主动披露自己的信息。这意味着社交机器人掌握了大量人类的情感信息和其他各类信息,只要在技术上有可能,它就有泄露隐私的危险。
采取小数据主义的思路,则可以将这些数据限制在家庭范围中,从而避免隐私泄露。如果这一点可以实现,那么社交机器人就如同动物一般,既能亲密陪伴,又能保守秘密。然而,前文已论述了小数据主义并不能实现高水平的社交能力,这就留给我们两个选项:要么依赖大数据和算力获得具有高水平社交能力的社交机器人,要么从小数据出发获得能够保证隐私安全但社交能力显得落后或匮乏的社交机器人。前者不仅具有高水平的社交能力,在其他知识领域中同样表现卓越,但同时保持了大数据的所有风险。而后者也不失为一个选择,就像不掌握人类语言的动物也能起到很好的陪伴作用一样,对不同的人来说,他们并不都需要或期待陪伴者拥有高水平社交能力。对这二者的选择实际上是基于不同价值的选择,前者更注重社交能力的发展,后者更注重安全性。因此,在社交机器人技术的发展中,小数据主义可以在一定领域中和需要下发挥优势,这需要人类对社交机器人抱有不同的期待。
谭笑,首都师范大学政法学院教授
(原文载《中国社会科学院大学学报》2025年第6期,是“笔谈”专栏文章之一,注释从略,全文请见原刊,引用请据原文并注明出处)