余盛峰:法律与自由主义技术伦理的嬗变

选择字号:   本文共阅读 119 次 更新时间:2021-03-25 15:59:37

进入专题: 自由主义   技术伦理  

余盛峰 (进入专栏)  

  

   在传统农业时代,技术只是辅助人力零星地使用,技术伦理问题不足以成为思想家的核心议题。至少要到十八世纪工业资本主义兴起,当大规模技术设施、技术装置和技术工程逐步推广时,才产生了所谓的技术伦理问题。

   而在这个时代,处于支配地位的道德哲学、社会哲学与法律哲学,乃是古典自由主义理论,即由康德、密尔、洛克等思想家为代表的自由主义伦理。由于这样一种特定的历史亲和关系,近代以降的技术伦理,也就自然继承了自由主义的一系列基本原理。换言之,古典自由主义塑造了现代技术伦理的原则。但是,晚近信息技术发展对自由主义技术伦理带来了深刻的挑战,如何回应这些挑战?这就需要我们思索未来新的技术伦理原则框架。

   1

   塑造现代技术伦理的首先是康德的自主原则(Respect for Autonomy)。在康德看来,每个理性人都具有运用理性自主承担行动责任的能力,“要有勇气运用你自己的理智”。理性主体拥有自主选择的权利,因为这事关他的道德尊严。即使这样的选择对其不利,但若非经由他们同意,也不能对他们的行动进行干涉或替代他们做出选择。落实于技术伦理领域,康德原则就尤其强调“个人自主权”及“知情同意权”。

   由于技术应用可能使他人陷入不利局面,所以有必要事先征求同意(或意见)。因此,所有现代医学伦理和实验伦理,都主张必须在手术及科学研究开展前,事先取得患者或受试者的知情同意。患者或受试者经由知情同意,基于自己的理性判断做出决策,自主承担责任,自愿接受由此可能带来的风险。一九一四年美国的舒伦多夫诉纽约医院协会案是知情同意原则发展史上具有里程碑意义的案件。著名的卡多佐法官(Benjamin Nathan Cardozo)审理了此案,在判决书中做出了经典的判词,奠定了知情同意原则的基石。卡多佐法官写道:“每一个成年的心智健全的人都有权利自主决定如何处置自己的身体,医生未经患者同意就进行手术构成企图伤害,并应因此负赔偿责任。”

   究其实质,康德的自主原则实现了对技术风险和相应法律责任的一种理性配置。根据知情同意原则,患者或受试者自主做出同意的决策,因而不再把责任施加于医方或研究者,这样就实现了技术风险的有效转移和合理分配,顺利推动了各种医疗诊治和科学实验活动的展开。技术伦理不只是形而上学的高蹈理想,而必须镶嵌到整个现代社会功能系统的分化与演化,以及工业时代的经济和社会的基本制度安排逻辑中予以理解。

   事实上,康德自主原则这一主要作为工业世界技术伦理与技术风险分配的机制,也同样延伸到了网络世界。在今天的互联网领域,例如涉及隐私与个人信息保护问题,也都广泛采用了主要基于康德主义的“知情—同意原则”。“‘告知—选择’被内建为数据控制者和数据主体的基础法律关系。”即,只要互联网平台(或相应APP)事先告知了相关的隐私政策,就代表你已经明示或默示做出了自主同意,那么,此后平台(APP)进行的各种信息收集、处理、存储和传播行为,也就具有了基于自主原则的技术正当性。

   其次是密尔在《论自由》一书中提出的著名的伤害原则(Harm Principle)。只要不造成伤害,行动就是自由的。这也被称为“不干涉原则”:“对于文明群体中的任何一个成员,之所以能够使用一种权力反对其意志又不失为正当,唯一目的只能是防止伤害到他人。”

   密尔的伤害原则对应于技术伦理领域,其含义即为:在尽到合理的注意义务和信义义务之后,除非对人造成明确的伤害,或有明确伤害的危险,技术实践就应是自由的。在早期工业资本主义发展阶段,密尔原则通过紧密配合民事侵权领域的过错赔偿原则,为早期工业化的技术发展与市场开拓提供了充足的自由空间。直到二十世纪之后,伴随福利国家制度与商业保险技术的兴起,侵权领域的过错原则才被无过错原则和严格责任原则(Strict Liability)取代,技术伦理的天平开始从工业企业发明家与资本家一方,逐渐倾向作为弱势群体的普通公民和消费者一方。特别是在欧盟,晚近以来,密尔的伤害原则逐渐被风险预防原则(Precautionary Principle.即,只要风险存在,公共机构就可以采取预先保护措施,而无须等到风险的事实和严重性明显时才开始行动)取代,后者成为技术伦理的首要标准。

   而传统互联网世界在众多领域都沿用了密尔的伤害原则,即只要不造成“伤害”,互联网的各种信息实践就应是自由的,这成为约翰·巴洛(John Barlow)笔下赛博空间野蛮生长的重要伦理依据。以网络色情为例:据报道,美国境内服务器的色情网页在二〇〇六年就达2.45亿个,占全球色情网页总数的89%。而美国政府之所以未能“扫黄”,很大程度上就是因为美国宪法第一修正案的表达自由条款。在“不雅”(Indecent)、“色情”(Pornography)与“淫秽”(Obscene)的区分上,司法者往往采取较为弹性的标准,只要不构成严重的下流(Lewd)、猥亵(Lascivious)、肮脏(Filthy),通常将其作为“一般色情”而非“伤害”处理。

   当然,“伤害”概念的辨析往往成为技术公共政策讨论的焦点,在不同时代和不同社会群体之间会形成相当不同的理解,由此也成为社会集团角力的核心战场。例如,历史上色情文学出版商与反色情的女权主义者(Anti-Pornography Feminism)围绕色情作品的法律政策有过长期的争论。同样的道理,在儿童福利保护思潮兴起之后,传播有关猥亵儿童的照片,也不再属于自由言论的保护范围。在今天,基于密尔伤害原则,以及通过对“伤害”概念的宪法扩张解释,已在互联网领域形成一系列新的伦理审查标准。例如,YouTube的社区准则,就禁止发布色情图片、仇恨言论,以及“虐待动物、滥用药物、未成年人饮酒吸烟或制作炸弹等不良内容”。但是,由于“伤害”概念本身的模糊性,密尔原则具体落实的状况,仍然取决于利益集团实力博弈的结果。

   技术伦理第三个核心原则源于洛克的个人主义(Principle of Individuation)。在此原则下,个人被视为社会的逻辑起点,只有个人才是真实的。在“唯名论”视野下,“社会”概念是多余的,“社会”无法为自身主张权益,因此必须采取个体化策略形成个案性的法益保护机制,通过私人诉讼机制来对抗外部技术风险。技术伦理的正当性基点乃是个人,法律首先是保护“个人”的权益。正是基于这一原则,当代的信息隐私保护,也都首先强调保护个人信息和个人隐私,法律保护的并非是所有信息类型,而是个人识别信息(Personally Identifiable Information),即与身份已识别或可识别的自然人(“数据主体”)有关的信息,从而排除非个人信息、公共信息与匿名信息。只要无法被识别到“个人”,相关信息就不受法律保护。概言之,隐私保护采取了严格的方法论个人主义,以个人为中心和本位,通过个体化策略进行权利的解释与适用。

   经由近代自由主义的原理阐发,从十八世纪工业时代以来,围绕自由主义道德原则,建立了一整套针对近代科技体系的技术伦理。统合康德原则、密尔原则和洛克原则,传统工业时代的技术伦理或可表述如下:相关技术应用如已事先告知并得到相关当事人同意,不会对个人造成明确伤害,就属于合法与正当的范围。

   2

   近代自由主义技术伦理的风险—责任分配机制,构建了一个有利于推动技术发明和技术资本原始积累的法律框架。由于工业时代的技术装置、技术工程与技术设施的特点,由技术引发的社会效果和社会效应是相对固定与可见的,由其带来的技术风险通常可以被客观地定位、预测和评估。在这种技术背景下,通常可以运用诸如知情同意原则、过失侵权与严格责任等法律技术,基于个体化的自主选择和私法化的诉讼机制来分配与矫正技术风险。这一十八世纪工业时代建立的技术伦理,今天依然在继续支配新的技术时代(包括互联网时代),但显然,它已开始遭遇各种挑战。

   首先是自主原则的困境。当技术工程应用越来越大型化、复杂化、弥散化、网络化、风险化,要在技术应用之前就事先获取主体的知情同意已变得越发不可行。首先,我们没有办法明确界定谁是相关技术应用的受影响者和潜在波及者,技术波及的对象范围已经很难像工业时代那样确定;其次,我们也难以确定到底需要哪些主体的知情同意,比如,在大数据技术系统投入运行之前,是否需要获得所有相关主体的知情同意?更大的问题在于,如何界定所谓“相关主体”?是直接被收集数据的个体,是任何可能使用大数据平台的消费者,或是任何有可能被相关大数据算法触及的对象?从理论上来说,由于算法应用的普遍覆盖,所有社会主体都有可能成为算法技术的影响对象。并且,即使明确了需要做出知情同意的主体范围,在所有主体之间又是否以及如何可能达成同意?是一致同意还是多数同意,是一次性同意还是连续性同意?是采取“是与否”的二元同意,抑或可以量化计算的累积同意?不同意做出授权的主体,是否自动丧失使用相关数据技术的权利?而知情同意,是简单的告知,还是以达到充分理解作为前提?是明示的同意,还是默示的同意?是进入的同意,抑或退出的同意?

   事实上,根据研究者统计:按照平均阅读速度,如果一个美国人要把一年中遇到的所有隐私政策全部读完,平均需要花费二百四十四个小时。“告知过剩,而选择缺席”,隐私的自我管理在实践中往往沦为闹剧。

   其次是伤害原则面临的挑战。同样以大数据技术为例,我们观察到密尔原则失效的诸多可能:即使没有造成直接“伤害”,大数据技术仍然可以通过信息数据的批量化处理和应用,深度“触及”个人,对个人形成直接或间接的算法歧视。

   今天,新的大数据空间遍布各种复杂的算法机制和人工神经网络,海量的数据,包括个体行为模式、集群特征、天气状况、产品周期管理、眼球运动、步态、皮肤状态、人脸识别、安全漏洞、金融交易、血液构成,都通过各类计算机器进行搜集、挖掘、建构、读取和评估,这些自愿贡献或自动搜集的信息一旦重新组合并深度挖掘,就可能凝聚为影响巨大的信息支配工具。并且,这些算法黑箱的技术原理也鲜为人知。密尔伤害原则,是假设特定的技术及其控制主体有可能给特定主体带来某种确定的伤害。但当前的人工智能与大数据技术,通过各种“黑箱化”的算法,则有可能隐匿技术应用过程,将“伤害”结果弥散化和模糊化,从而陷入一种找不到确定伤害主体与被伤害主体的悖谬局面。

   最后,个人原则同样出现危机。大数据通过算法标签,建构各种临时群组类型,无须和个体直接发生联系。各类算法根据性别性格、阶级背景、身份地位、收入水平、爱好倾向等不同要素,把人进行相应的分门别类,再根据所属类型,进行不同对待。传统信息技术只能依据特定观察视角捕捉个人的部分社会领域信息,这些信息之间无法形成跨越系统边界的整合,由此保证了个体心理系统的完整性,确保了个体在面对社会时具有某种不透明性作为其自由行动的基础。但是,大数据技术却可以形成跨越组织、系统、场景,甚至跨越时间线的信息挖掘和处理能力,个人将完全成为“赤裸生命”(Bare Life)。

以大数据为代表的新数字技术,就与洛克个人原则形成深刻冲突。首先,人不再是原子化的孤岛形象,人成为高度网络化的动态实体,成为大数据空间的临时节点。数字画像不再只“关注特定个体的数据,而是大规模人群的集成数据”。其次,大数据技术通过不特定目标收集、存储和处理不确定数量群体的信息,不再直接针对个体进行因果推断,而是在群组、集合与类型意义上统计其相关性。其三,个人成为各种类型化标签的数据点,算法决策不需要与有血有肉的个人对接,也不需要深入探察幽深的心理世界,而主要基于离散、可再分与非个人的各种数字轨迹,“形成超主体与亚主体的‘统计学身体’”。(点击此处阅读下一页)

进入 余盛峰 的专栏     进入专题: 自由主义   技术伦理  

本文责编:admin
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 法学读书
本文链接:http://www.aisixiang.com/data/125701.html
文章来源:《读书》2021年3期

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2021 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统