丁晓东:制度与场景:重构人脸识别与人脸图像信息保护

选择字号:   本文共阅读 422 次 更新时间:2025-12-31 21:28

进入专题: 人脸识别   人脸图像信息保护   侵权隐私   信息隐私   执法隐私  

丁晓东  

 

【摘要】已有法律制度对通过技术识别的人脸识别信息适用个人信息保护,将其视为生物识别信息或敏感个人信息;对可以自然识别的人脸图像信息适用隐私权保护,将其视为公开个人信息与非私密信息。此类基于信息区分的二分保护具有一定合理性,但也存在困境。法律应转向基于制度区分的保护,在侵权隐私、信息隐私、执法隐私的制度模块下保护不同场景下的人脸信息。侵权隐私制度具有横向性特征,主要针对违反社会关系的人脸信息获取场景;信息隐私制度具有倾斜性特征,主要针对信息能力不平等主体之间的人脸信息处理场景;执法隐私制度具有纵向性特征,主要针对人脸信息的公共执法场景。人脸信息保护的关键是实现制度与场景的对齐。应将不同制度模块适用于与其相匹配的典型场景;对于与制度模块不匹配的非典型场景,则应对制度模块进行改造与转型升级。

【关键字】侵权隐私;信息隐私;执法隐私;人脸识别;人脸图像

 

一、问题的提出:人脸识别与人脸图像信息二分

人脸信息保护是一个老生常谈的社会与法律热点问题,每隔一段时间,新闻媒体就会报道我国和域外有关人脸信息的立法与相关案例。例如,在杭州的“人脸识别第一案”中,杭州野生动物园仅允许游客使用人脸识别的方式入园,游客据此向法院提起诉讼,引发全社会关注。[1]又比如,在山东济南的一个楼盘售楼处,部分看房人为躲避售楼处的面部识别监控技术,头戴摩托车头盔前去看房,引发媒体广泛报道。[2]而随着人工智能技术的兴起,利用网络技术在互联网空间爬取人脸图片、创建人脸识别信息库并用于人工智能训练,也引发了法律风险与争议。这一做法目前在美国被认定为合法活动,但却被欧盟多个国家的数据保护机构认定为违法。[3]此外,涉及人脸信息拍摄、监控的案件也层出不穷。例如有人从事街拍活动,将拍到的人像图片和视频上传至网络,引发了被拍摄者的不满;有的居民在自家门口安装监控视频,拍到其邻居的人脸信息,引起邻居的投诉与不满;一些网民的人脸被他人用AI技术移花接木到淫秽色情图片与视频上,并遭遇敲诈勒索。

为了合理保护人脸信息,我国、域外国家和地区均出台了相关法律法规或指南。例如,我国最高人民法院于2021年出台了《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》,国务院于2024年发布了《公共安全视频图像信息系统管理条例》,对采集与处理包括人脸信息在内的个人信息进行规范。同年,我国国家互联网信息办公室、公安部联合发布了《人脸识别技术应用安全管理办法》,对利用人脸识别技术处理人脸信息进行规范。域外国家和地区也发布了相应指南。美国于2025年通过了《删除法案》,其中相关条款规定,平台需要采取技术措施删除利用AI技术进行换脸的私密或裸露图像。[4]欧盟早在2019年就发布了《关于通过视频设备处理个人数据的准则》的指南,对通过视频监控方式处理人脸信息的行为进行规范。[5]欧洲理事会《关于个人数据自动化处理中的个人保护公约》(第108号公约)咨询委员会发布《人脸识别指南》的报告,就人脸识别对立法与政策制定者、制造商、使用者和个人给出了全方位的建议。[6]欧盟于2024年通过的《人工智能法案》也对人脸识别进行了规定,将从互联网或监控视频中“爬取人脸图像来创建或扩展人脸识别数据库”列入禁止性人工智能实践。[7]

对于人脸信息保护,学界已经从不同角度进行了深入分析,但仍有一些关于人脸信息保护的核心问题尚未得到分析与探讨。首先,人脸信息保护应当适用何种制度?是否可以说,经过技术识别的人脸识别信息适用《个人信息保护法》,而未经技术识别的人脸图像信息则不适用?如果人脸信息保护适用《个人信息保护法》的框架,则个人可以行使《个人信息保护法》中的一系列权利,例如,个体知情决定权、查阅复制权、携带转移权、更正补充权、删除权、解释说明权等权利;信息处理者则要遵守一系列义务,例如,安全保护措施、合规审计、影响性评估、个人信息泄露等情形中的补救措施。相反,则上述《个人信息保护法》的一般制度将不适用。当人脸图像信息不适用个人信息保护时,法律又应当采取其他何种保护制度?例如,在摄影街拍、监控录像的场景下,法律是否以及如何保护人脸图像信息?

其次,如何看待人脸信息的敏感性、公开性与私密性等属性与特征?敏感个人信息与公开个人信息的概念为各国的个人信息保护法所规定。对于敏感个人信息,各国都采取强化保护措施。对于处理公开个人信息,各国则对其进行弱化保护。而私密信息则与传统隐私权密切相关,《中华人民共和国民法典》(以下简称《民法典》)规定:“个人信息中的私密信息,适用有关隐私权的规定;没有规定的,适用有关个人信息保护的规定。”[8]是否可以说,经过技术识别的人脸信息都是生物识别个人信息,因此属于敏感个人信息、非公开个人信息、私密信息,而未经技术识别的人脸信息则是非敏感个人信息、公开个人信息、非私密信息?但在人脸图像信息和人脸识别信息相互转换的背景下,又应当如何看待人脸信息的属性及其法律适用?[9]

上述问题环环相扣,密不可分。例如人脸信息适用何种制度,将决定或影响法律对敏感个人信息、公开个人信息与私密信息概念的讨论。反之,人脸信息是否具有敏感性、公开性与私密性特征,又会影响法律采取何种制度保护人脸信息。此外,人脸信息的敏感性、公开性与私密性也会相互影响。[10]本文对上述问题进行讨论,指出人脸识别信息与人脸图像信息二分保护面临着重大挑战与困境。为应对这些挑战与困境,本文引入域外法学界最近二十多年来广受关注的制度模块理论(modularity theory),[11]指出这些挑战与困境的根源在于制度模块与场景的不匹配。法律需要区分不同制度与场景,将不同功能的制度模块适用于与其相匹配的典型场景;而对于与制度模块不匹配的非典型场景,则需要对制度模块进行拆分、重组、改造或转型升级,使得新制度能够适应非典型场景或新场景。本文提出信息隐私、侵权隐私与执法隐私这三种不同制度模块,对这三种制度模块的制度设计、功能与基本原理进行分析,在此基础上对人脸信息保护的制度进行重构。

在行文方面,本文第二部分对人脸信息保护的制度适用与信息属性展开分析;第三部分阐述信息隐私、侵权隐私与执法隐私的不同制度模块,借此分析与重构人脸信息保护的基本原理;第四部分对人脸信息保护的具体制度进行重构;结语部分对制度与场景的对应问题进行法理学反思。在术语使用方面,为了简便起见,本文将把经过技术识别的人脸信息称为人脸识别信息,把暂时未经技术识别的人脸信息称为人脸图像信息,把人脸识别信息和人脸图像信息统称为人脸信息。同时,本文所称的信息隐私制度与个人信息保护制度是同一制度,但在不同语境中采用不同表达。

二、人脸信息二分保护的困境与争议

人脸信息收集与利用的场景多元,既包括人脸识别信息,也包括人脸图像信息。前者又包括一对一的个体验证、多对一的个体识别、多对多的身份归类。[12]后者则包括摄影拍照、录像监控、网络爬取等多种不同场景。对人脸信息进行分析,可以发现其适用的制度与人脸信息的特殊性都存在争议。

(一)人脸信息二分保护的制度困境

对于人脸识别信息,一对一的人脸识别主要用于身份验证,例如,有的大学和小区门口设置刷脸设备,对进入其中的学生、老师和访客进行验证;酒店在旅客入住、银行在顾客开户时通过公安机关身份信息数据库进行比对。[13]在此类场景中,人脸识别技术的使用者与个人具有显著的信息处理关系,而且利用个人信息保护制度可以有效规制此类信息处理关系。一方面,赋予个人信息主体相关权利可以有效维护个人权益,例如,个人信息更正权可以有效防止个体人脸识别出现差错。另一方面,对信息处理者施加相关责任则可以有效维护用户的信息安全、金融账户安全、公共安全等各类权益。[14]

但在多选一、多选多的人脸识别场景下,法律是否应当对其适用个人信息保护法存在疑问。多选一的个人人脸识别主要用于从人群中识别个人,例如,公安机关可能利用此类识别技术进行打拐,寻找走失儿童,在侦查过程可能调取摄像头,从摄像头中比对识别犯罪嫌疑人。[15]也有的商家可能利用人脸识别技术对顾客进行精准识别,对其进行持续追踪与精准营销。多选多的人脸群体归类主要指群体特征识别,即通过人脸识别技术将某人归纳为某一群体,例如,执法部门或娱乐场所、烟酒企业商家利用人脸识别技术,筛查其所交易的对象是否为未成年人。还有的商家和经营实体利用人脸识别技术,识别进入其商店的顾客有多少人是女性,有多少人是老年人。本文开篇提到的售楼处利用人脸技术识别顾客,就属于此类情形。但无论是多选一还是多选多,对其完全适用个人信息保护制度都存在问题。一方面,人脸技术的应用者和个人都缺乏直接交互的界面与持续性的信息关系。因此,人脸技术应用者很难保障个人的知情同意权、查阅复制权、携带转移权、更正补充权、删除权、解释说明权等权利。人脸技术应用者最多只能在某些场景下对个体进行提示,例如,竖立警示标识,但无法保障每个个人都能对其进行充分告知,更难以获取其同意。另一方面,在筛查犯罪嫌疑人、娱乐场所未成年等执法场景下,法律则更加不可能赋予个体以知情同意权,对个体进行事前告知将使得执法失去意义。

人脸图像信息所涉及的场景也非常复杂。有的人脸图像信息收集利用明显不具有信息处理关系的特征,把这些场景排除在个人信息保护制度之外,具有合理性。例如,当个体在街拍时拍到他人人脸,或者利用AI技术对他人照片视频进行换脸,那么法律应当对此类行为适用传统隐私权与侵权法进行保护。除非个人是专业性的街拍人员,其拍摄的人脸信息已经具备处理特征,则此时法律可以适用个人信息保护制度。但在其他很多涉及人脸图像信息的场景中,个人信息保护制度是否适用存在争议。以餐厅、宾馆、咖啡馆等场所的视频监控为例,很多监控视频不会直接被用于人脸生物性识别,但也可能在未来被用于一对一、多选一、多选多的人脸生物性识别。而且,即使是排除人脸生物性识别的监控视频,个人信息保护中的很多制度也未必能够完全适用。对于视频监控,个人应当有一定的知情权,也可以要求信息处理者确保此类视频的安全,防止数据泄露,但个人却未必可以主张决定权、查询复制权、删除权、携带权等权利。因为监控视频缺乏交互场景,个人无法行使同意。而且此类视频往往包含了其他个体的信息,在查询、复制、删除或转移此类视频时,很可能会威胁他人的信息安全。

(二)人脸信息二分保护的属性争议

首先,人脸识别信息与人脸图像信息的敏感性二分存在争议。法律一般将人脸识别信息视为生物识别类的敏感个人信息。例如我国最高人民法院2021年出台《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》指出,人脸识别信息属于《民法典》第1034条规定的“生物识别信息”。美国伊利诺伊州的《生物识别信息隐私法案》(Biometric Information Privacy Act)规定:“脸部印记(包括从照片中提取的任何脸部印记)”属于“生物识别标示(biometric identifier)”。[16]对于生物识别类个人信息,各国也对其适用特殊保护制度。例如,《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)将生物识别数据与种族、民族、宗教信仰、医疗健康、金融账户、个人行踪等信息并列,归入“个人敏感信息”的范畴,并对其制定了特殊的处理规则。欧盟则将生物识别数据归入“特殊类型个人数据”的范畴,[17]规定除了一些例外情况,[18]原则上禁止对其进行处理。美国伊利诺伊州《生物识别信息隐私法案》要求,任何私人实体收集生物识别信息,必须向个人提供书面告知,并且获取个人同意。[19]相反,如果个人或企业拍摄他人照片或安装摄像头进行监控,但并不使用技术手段为个人设置唯一的人脸标识,则此类人脸图像信息仍然属于普通个人信息。《最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》明确指出,“使用人脸识别技术处理人脸信息、处理基于人脸识别技术生成的人脸信息”,是该司法解释适用前提。《一般数据保护条例》也有较为清晰的认定,“重述”指出,“照片的处理不应系统地被视为特殊类别个人数据的处理,因为只有通过允许对自然人进行唯一识别或认证的特定技术手段进行处理时,生物特征数据的定义才涵盖这些数据”[20]。

但人脸信息敏感性的上述二分保护面临争议。法律对非技术识别的人脸图像信息进行一般保护,对技术识别的人脸识别信息进行特殊保护,其理由是人脸识别信息具有唯一性和敏感性。但无论是识别的唯一性还是信息的敏感性,此类区分都并非绝对。就识别性而言,人脸技术识别信息固然具有相对唯一性,可以通过此类信息识别到个人,但此类识别是针对机器而言。对于自然人的肉眼而言,技术与机器处理后的信息,例如,鼻子与嘴唇的距离,其实反而不具有识别性。自然人所能一眼识别的人脸信息,恰巧是未经技术处理的人脸照片或人脸视频。因此,在有的情形下,人脸图片或视频信息反而受到比人脸识别信息更多的保护。例如,1998年的美国《儿童在线隐私保护法》(Children's Online Privacy Protection Act, COPPA)将儿童的“照片、视频或音频文件”视为儿童个人信息,[21]但并未将未成年人的生物特征数据明确纳入其保护范围。[22]

就不同国家的文化背景与个人感受而言,人脸技术识别信息也很难说就比人脸照片与视频更敏感。欧盟将生物性识别数据纳入“特殊类型个人数据”,与种族或民族背景、政治观念、宗教或哲学信仰等类型的数据并列,这与欧盟的历史和种族问题有密切联系,反映了欧盟对于借助生物性识别信息进行种族歧视和种族排斥的高度警惕。但这一历史与文化背景并不一定适用于其他国家,尤其未必适用于中国等非西方国家。[23]对于普通中国人而言,可能某些场景下的人脸照片或视频更为敏感,此类信息的收集与储存可能会让很多人感到更为焦虑和紧张。相反,经过机器识别与处理的人脸信息则由于其技术性,只能为机器以及很少部分技术人员所识别,人们可能并不担心其为机器所识别,而更担忧这类信息泄露后被用于身份伪造等非法行为。[24]

其次,人脸识别信息与人脸图像信息的公开性二分也存在争议。法律一般将人脸图像信息视为公开个人信息,将人脸识别信息排除在公开个人信息之外。因为在社会交往中,人脸图像信息经常以公开为原则,以不公开为例外。例如,在关于蒙面的宪法争论中,很多国家和地区的宪法判决认为,对脸部信息的遮挡违背了人格尊严,阻碍了社会交往与个人的公共责任。[25]而人脸识别信息由于需要进一步识别,具有较强的私密性,因此不少国家的法律都明确将其排除在公开个人信息范围之外。例如美国《加州隐私权利法案》(California Privacy Rights Act, CPRA)规定,“‘公开可用’并不意味着企业有权在消费者不知情的情况下收集有关消费者的生物特征信息”[26]。对于公开个人信息,各国法律也对其进行弱化保护甚至是豁免保护。例如,我国《民法典》规定,合理处理“自然人自行公开的或者其他已经合法公开的信息”,信息处理者并不承担责任,除非“自然人明确拒绝或者处理该信息侵害其重大利益”[27]。我国《个人信息保护法》也规定,“在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息”可以被视为处理个人信息的合法性基础。[28]并且对处理公开信息进行了单独规定。[29]

人脸信息公开性的二分保护框架也存在问题。《个人信息保护法》对公开个人信息弱化保护,其基本预设是公开个人信息已经经过个人信息主体或其他合法途径公开,因此对其进行处理对个人权益和社会利益造成的影响较小。但无论是在公开性层面还是在风险层面,人脸图像信息处理的风险都未必会比人脸识别信息的风险更小。就公开性而言,人脸图像信息的公开性主要针对其线下交往或活动范围,除非是公众人物,其人脸图像信息并非对全社会完全公开。而人脸识别信息也已经越来越容易获取,其公开属性也越来越强。人脸识别技术于2000年前后仍然主要处于实验层面,但随着过去二十年来卷积神经网络(CNN)等算法技术的突破,人脸识别技术被快速商业化运用。今天,人们只要用很低的费用就可以购买具有人脸识别功能的各类技术应用。尤其对于包含人脸的照片、视频,人们可以很轻松地将此类人脸图像信息转换为人脸识别信息。[30]就风险而言,人脸识别信息虽然在技术层面更为精确,但这种精确识别主要用于手机解锁、移动支付、银行开户、小区进出、机场安检等少量场景,而这些场景中的人脸识别信息往往受到较高层级的安全保护,其信息处理的风险未必很高。相较之下,人脸图像信息虽然难以直接被技术所精准识别,但其可以被用于不特定的具体场景。例如,人脸可能被不法分子用于各类移花接木的PS、AI换脸,其所产生的风险可能远大于人脸识别信息。

最后,就个人信息的私密性而言,人脸图像信息与人脸识别信息的二分保护也存在类似问题。个人信息的私密性常常被用于判断其是否受隐私权保护的依据。[31]从直觉上看,人脸图像信息具有公开性,应当属于非私密信息,仅受个人信息或公开个人信息的法律保护;而人脸识别信息则较为隐蔽,可以归入私密信息范畴,受到隐私权保护。但正如上文所言,人脸图像信息并非完全公开,人脸识别信息也越来越容易公开获取。从原理层面看,个人信息的私密性与公开性并非非黑即白,而是一个连续性光谱,取决于具体场景。[32]例如,互联网公共论坛上的个人信息可能公开性很强,微信朋友圈的个人信息具有半公开性;而线下公共场所、商业街的个人信息公开性较强,各种餐厅、咖啡馆、街角的个人信息公开性则相对较弱。[33]当某人出现在某些私密场所,其人脸信息就具有私密性。相反,一些获取人脸识别信息的行为,在某些国家和地区也被认为并不侵犯个人的隐私权。例如,美国Clearview AI公司从Facebook、YouTube、Venmo和其他网站“抓取”了海量人脸图像,创建了一个30多亿张人脸识别数据库供人工智能企业训练之用,这一行为也被认为符合美国法律规定。[34]

三、迈向人脸信息的制度模块保护

人脸信息之所以在法律制度和个人信息属性问题上存在争议,与隐私和个人信息保护的不同制度模块设计有关。隐私和个人信息保护采取了侵权隐私、信息隐私与执法隐私三种不同的制度模块,而每种制度模块对应不同的典型场景,人脸信息的保护场景有的和典型场景一致,有的则并不一致,这导致了人脸信息保护很难在法律制度和个人信息属性上给出没有争议的答案。本部分阐述这三种制度模块及其对应场景,并分析人脸信息保护的场景与其对应和不对应之处。

(一)侵权隐私制度模块

法律保护隐私与个人信息的第一种制度模块是具有横向关系特征的侵权隐私。这种制度模块的发展历史与基本制度已经为学界所熟知。19世纪末,随着摄影技术的发展,一些记者开始用相机拍摄可以识别个人人脸的照片,并将此类照片和留言八卦刊登在媒体小报上。1890年,沃伦(Samuel Warren)与布兰代斯(Louis Brandeis)发表《隐私权》一文,首先在论文中提出隐私权的概念,主张法律保护“个人独处的权利”,保证个人的“思想、情绪和感受”这些构成人格的要素不受侵害。[35]其后,隐私权的概念在美国、德国等国家被认可,我国也将其纳入人格权的保护范畴,并利用侵权法进行保护。

在适用侵权隐私制度模块时,侵权隐私所要保护的隐私权是一种合理的社会关系,而非某一个体的固定空间。沃伦与布兰代斯虽然在《隐私权》一文中提出了作为独处的隐私,但他们也同时强调在社会关系中理解隐私,认为隐私的边界必须结合“每个具体案例的多种情境”来进行考虑。沃伦与布兰代斯指出,之所以要确立个人的隐私权,是因为新闻媒体已经“在各个方面都脱离了规矩(propriety)和体面(decency)”,流言蜚语已经成为一种“厚颜无耻的工业化生产”。[36]因此正如波斯特教授在评论沃伦与布兰代斯时指出,隐私权并不意味着秘密、匿名和独处,而是意味着我们作为社会群体中的个体应当给予彼此的空间。侵犯隐私意味着打破了社会精神上的宁静。[37]当法院将某些行为认定为隐私侵权,法院在此类认定过程中其实并非认定某个人固有的权利边界,而是界定一个社会共识性的交往规则,即一个社会的“社会规范(social norms)”或“文明规则(rules of civility)”。[38]

(二)信息隐私制度模块

法律保护隐私与个人信息的第二种制度模块是具有倾斜性关系特征的信息隐私或个人信息保护制度,主要针对“信息处理者”与个人之间的关系。[39]在适用前提与调整关系方面,这一制度模块的适用前提是存在倾斜性的“信息处理关系”,即信息处理者利用信息技术处理个人信息。例如,欧盟《一般数据保护条例》将“处理”(processing)界定为“自动化”“半自动化”,或者对“存档系统”进行“结构化”的手动处理。[40]美国各州的立法也将其法律适用范围界定在专业化或商业化的个人信息处理场景。我国《个人信息保护法》并未对“处理”概念进行明确界定,但也将纯粹私人性质的个人信息处理排除在外,[41]表明我国也采取了与欧美类似的法律制度。在制度设计方面,这一制度也具有倾斜性保护特征,法律一方面对个人信息主体进行赋权,另一方面对信息处理者施加责任,以合作治理的方式对信息处理关系中的信息主体进行保护。[42]

需要指出和强调的是,个人信息保护制度模块所针对的典型信息处理关系不仅具有倾斜性保护特征,而且具有大规模微型权益保护与持续性信息关系的特征。大规模微型权益保护的原因不难理解,如果信息处理关系是一对一、具有明确损害的侵权关系,则法律完全可以利用侵权隐私的框架进行保护。而在大规模微型权益保护中,个体利用侵权法进行救济的动力和能力非常有限,[43]社会又需要对此类大规模微型侵权进行治理。在侵权隐私制度无法适应此类侵权的背景下,信息隐私或个人信息保护法的制度才得以诞生。同时,如果信息处理关系不具有持续性和交互性,而是一次性、侵入性的,则《个人信息保护法》中的若干制度也无法发挥作用。在缺乏信息关系与交互界面的情形下,个体将无法向信息处理者行使知情决定权、查阅复制权、携带转移权、更正补充权、删除权、解释说明权等权利。只有当信息处理者和个人建立持续性和交互性的关系,《个人信息保护法》中的主要制度才能发挥其功能。

(三)执法隐私制度模块

法律保护隐私与个人信息的第三种制度模块则是纵向性的执法隐私制度。在中文学界的隐私或个人信息保护领域,这一制度模块受到的关注主要限于宪法研究与刑事诉讼研究。最初,执法隐私所针对主要是国家执法机构,例如,国家执法机构针对个人进行侦查、监控所引发的个人隐私保护问题。在我国,《中华人民共和国刑事诉讼法》(以下简称《刑事诉讼法》)等法律法规对其进行了规定。在美国,这一问题则主要被放置在美国《宪法第四修正案》和《监控法》(surveillance law)的框架下进行规范。不过需要指出,美国的《监控法》仅针对有限的窃听等问题进行规范;[44]而美国宪法的框架又过于简单和僵化,[45]很难适应信息与数字时代的执法隐私问题。在美国《宪法第四修正案》的“第三人理论”(third party doctrine)框架下,当事人对于自己对外披露的信息均不具有合理隐私期待(reasonable expectation of privacy),执法机构可以任意获取公共信息或这类当事人向第三人披露的信息。这使得美国执法部门可以广泛获取大量私人企业等主体所保存的个人信息和其他具有隐私属性的个人信息。[46]在执法隐私的学术研究中,美国的制度设计受到了学者们的广泛批判。[47]执法隐私制度需要超越美国《宪法第四修正案》的制度,对执法部门处理所有个人信息进行规范。

此外,执法隐私制度模块还应当针对私人主体执法。很多私人主体不仅获取并拥有大量的个人信息,而且直接承担了政府所要求的部分执法职能,例如上文提到的娱乐场所利用人脸识别机构筛查未成年人。这类关系由于其执法属性,私人主体与个人或公众之间也形成纵向性关系,也应当利用执法隐私的制度加以规范。本文开篇提到的我国《公共安全视频图像信息系统管理条例》,除了对国家执法机构和公共场所管理组织应用公共安全视频进行规范,也同时对旅馆、饭店、宾馆、招待所、民宿等私人主体应用公共安全视频做出规定。我国的相关立法更为符合执法隐私的基本原理与制度设计。

执法隐私也有若干特殊性需要指出和进行强调。首先,执法隐私的主体是公共机构或代表公共利益进行执法的私人机构,而公共执法本身就具有正当性,法律常常需要平衡执法信息与个人隐私保护,寻求与侵权隐私和信息隐私不同的理论基础。从目前的法学理论与法律实践看,学者提出了多种不同的论证。例如,保罗·葛维宝(Paul Gewirtz)教授认为,隐私保护有利于人民自治。如果人民“害怕被人偷听,害怕被公众曝光,害怕自己的言辞成为流言蜚语的话题,害怕自己的亲密关系被公开审查,害怕自己所说的话被认可或不被认可时”,那么人民就不会参与公共讨论,人民意志就难以形成。[48]内尔·理查德(Neil Richard)教授认为,执法中的隐私保护有利于公民个体的自主性,特别是个人的智性发展不受干扰。[49]此外,还可以看到国家对私人信息的过度获取反而会造成执法部门的信息过载,削弱国家的执法能力。国家执法能力的传统研究主要针对传统社会或工业化社会,其主要聚焦点是国家信息汲取能力的不足与国家能力建设的必要性。[50]但在信息与数据化时代,对国家执法能力的研究尤其需要关注信息过载所造成的国家能力下降问题。

从典型场景来看,典型执法隐私制度模块所针对的场景具有一次性或持续性的侵入型特征,区别于个人信息保护典型场景中的信息处理关系。一次性侵入的执法隐私典型是刑事案件中的个案侦查,而持续性侵入的执法隐私典型是公共安全监控。但无论是具有一次性还是持续性特征的执法隐私,执法者与个人之间都具有侵入性或对抗性,二者主要是侦查、预防等关系。而在典型的个人信息保护所针对的信息处理关系中,信息处理者与个人之间形成了兼具互惠与侵害的关系。执法隐私中的侵入性与对抗性特征,使得执法隐私也难以适用《个人信息保护法》中的很多制度。例如,在刑事侦查中,赋予个体知情决定权、查阅复制权等权利,将会严重干扰或彻底破坏执法机构的执法努力。整体而言,执法隐私主要通过对执法者进行规范而非赋予个体信息权利来保障个人隐私。

(四)小结:从信息区分到制度区分

从个人信息保护的三种制度模块出发,就能理解为何人脸识别信息与人脸图像信息的二分保护框架存在问题。这种二分保护框架从人脸信息本身的特征分析相关问题,忽略了人脸信息保护应当首先分析不同制度所适用的场景与制度功能。[51]从人脸信息区分转向制度区分,上述问题则会迎刃而解。

就制度适用而言,无论是人脸识别信息还是人脸图像信息,其制度适用取决于其信息处理的场景是否与某一制度相对应。如果某一场景与侵权隐私、信息隐私与执法隐私中的某一制度高度对应,则该场景就应完全适用其中的某一制度。而在场景与制度不对应的情形中,则应进一步分析某一制度的具体功能,并对该制度进行拆分、重组、改造或转型升级,以更好地应对无法与制度完全匹配的场景。

就人脸信息的属性而言,无论是人脸信息的敏感性、公开性还是私密性,都首先是特定制度工具的一部分,都必须结合具体制度及其制度功能来进行判断。其中,敏感性与公开性是个人信息保护制度的组成部分,某一信息是否敏感与公开,取决于将这类信息纳入敏感个人信息与公开个人信息,是否可以有效对这类信息进行治理。而私密个人信息则是侵权隐私制度中的相关制度,人脸信息是否属于侵权隐私中的私密信息,取决于隐私侵权中的个人处于何种场景,获取人脸信息的主体与个人之间的关系如何,其获取的人脸信息在多大范围公开、被用于何种目的等因素。

四、制度模块视野下的人脸信息保护

在原理反思的基础上,本部分进一步对人脸信息保护进行制度建构。具体而言,本部分将按照上一部分所提出的侵权隐私、信息隐私与执法隐私制度对涉及人脸信息的场景进行分类建构。正如上一部分所述,有的场景与制度高度契合,有的场景则与制度存在错位,法律需要对制度整体进行重构。

(一)人脸信息的侵权隐私保护

首先,侵权隐私可以适用于拍照录像、个人视频监控等各类与该制度相对应的典型场景。在这些场景下,判断相关人脸信息处理是否构成隐私侵权,取决于相关行为是否违反社会规范或一个社会中理性个体的合理预期。以拍照录像为例,利用手机进行拍照录像,拍到他人人脸;在公共广场、商业街道、旅游景区拍摄包含一般人脸图像的视频并上传至社交网络,都不应被视为侵权。在这类场景中,每个个体都应当能够预期自己的人脸信息有可能被他人拍摄与分享。但是,如果此类拍照录像是对特定个体进行跟踪拍摄,或者是针对未成年人进行未经允许的人脸特写拍照并将其广泛分享,则相关行为可能构成隐私侵权。再以个人视频监控为例,当普通个体在其房屋外或家门口安装视频监控,如果这类视频监控的区域属于社会理性个体所能预期的范围,则其视频监控到的人脸信息应不属于侵权。但是如果此类监控可以拍摄到他人房屋内的活动,或者此类监控可能构成对邻居等特定个体的行踪轨迹的监控,则此类视频监控就属于侵犯他人隐私。[52]

侵权隐私中的人脸信息保护也常常需要考虑其他合法权益。例如,在涉及媒体报道、公共人物与公共事件的情形中,[53]法律需要平衡隐私权与舆论监督、公共讨论的需求。而且即使是个人从事此类行为,其侵权行为的边界也应当有所变化。例如2019年,有父母将一名6岁的小女孩绑在树上进行教育,一位路人担忧小女孩情况,对这一情形进行了录像,并将视频私信给新浪微博大V进行传播,此案最终引发了相关诉讼。[54]在本文看来,此案对未成年人的人脸信息进行法律保护具有合理性。但此案与一般拍摄未成年人的行为不同之处在于,此案中的路人是因为担忧未成年人的安全而进行的拍摄和传播,具有见义勇为和社会监督的性质。虽然事后证明该案中的父母并没有伤害其孩子的意图,但在当时的情形下,该名路人的拍摄与传播行为不应受到法律的否定。

其次,在非典型场景下,侵权隐私也可以适用于信息隐私或执法隐私对应的场景。尽管侵权隐私是一种横向保护的制度,但当事人仍然可以将信息处理者或执法者视为侵权法上的侵权者。当然正如上文所述,在信息隐私或执法隐私的人脸保护场景中,适用侵权隐私可能面临制度失效的困境。例如,信息处理者违规处理大量人脸信息、执法者违规对个人人脸信息进行识别。在这些场景中,个体很难对自身权益进行有效救济,在绝大多数情形下,个体既难发现其权益受到侵害,也难对造成的损害进行举证。而且即使极少数个体能够对自身权益进行救济,其他被违规处理的海量个体权益也无法得到保护。

面对非典型场景下制度与场景的错位,一种方案是直接诉诸信息隐私或执法隐私保护制度,寻求与场景更相对应的制度工具。而另外一种方案则是对侵权隐私制度进行改造与升级,使得侵权隐私制度仍然能够发挥其作用。例如,在综合性个人信息保护制度仍然缺位的美国,很多学者就主张降低隐私侵权中“损害”的认定标准,[55]允许更多的隐私侵权被法院接受与认可,以重新发挥侵权法对于大规模侵权的治理作用。不过,这种制度的改造也是双刃剑,降低隐私侵权中“损害”的认定标准,可能导致法院的案件大量增加、监管过度等“私人执法”问题。[56]

(二)人脸信息的信息隐私保护

首先,正如上文所述,信息隐私高度对应一对一人脸识别验证这一场景。在一对一的人脸识别场景下,处理者与个人之间不但具有不平等的信息处理关系,而且人脸识别信息又具有很强的个体属性。人脸识别信息的这种特征使得这类信息具有类似早期档案类个人信息的属性。个人信息保护法的早期制度,即公平信息实践制度,起源于对个人税收记录等个人档案类信息的保护。[57]对于此类较为重要和处理频次较低的信息,个体具有较强的自我保护动力,赋予个人信息权利和强化个体的信息自我控制,不会陷入“隐私悖论”(privacy paradox)或隐私自我管理的困境。[58]就一对一的人脸识别本身而言,这一制度适用信息隐私制度应无疑议。

其次,对于一些与信息隐私保护不完全匹配的非典型场景,信息隐私制度模块应当进行改造和适用。以上文提到的商业化多对一或多对多的人脸识别场景为例,当商场对顾客进行人脸识别并进行商品推荐、顾客服务,此类场景中的商场与个人之间仅具有有限的交互性,而且其交互性是针对进入商场的所有顾客,而非针对特定个人。针对其场景的特殊性,法律应当赋予个体以个人信息权利中的知情权,但不应要求商场保证个体的决定权等其他权利。商场如果选择使用人脸识别技术,[59]就需要在入口等显著位置对顾客进行提示,告知其使用了人脸技术,但商场不太可能无法获得顾客的事前明示同意,对于已经进行人脸信息识别的顾客。而且由于商场是与整体顾客进行有限交互,商场也很难保证某个个体用户的人脸信息可以被查阅复制、携带转移、更正补充或删除。当然,由于顾客对于人脸图像或人脸识别信息处理往往较为敏感,商场应当遵守信息处理者责任中的相关制度,特别是严格遵守“目的限定”“数据最小化”等要求。[60]一旦商场的人脸识别突破“目的限定”与“数据最小化”要求,将其应用于跨商场追踪,个人的隐私合理期待就会受到严重挑战。

再以目前争议较大的人工智能人脸识别训练为例,人工智能人脸训练所依赖的人脸识别数据早期主要依赖个体授权,但随着人工智能对于数据量的需求暴增,目前的人工智能人脸识别训练数据主要源于对互联网上可公开获取的人脸图片进行爬取、识别与标注。在本文看来,信息隐私的制度模块应避免对此类场景适用个人信息权利部分,但应当适用信息处理者责任部分。就个人信息权利而言,人工智能企业与个人之间完全没有交互场景,而且其对人脸信息的训练型利用也不会对个体直接产生侵害,此时个人信息权利中的知情决定权等权利都无法有效行使。就个人信息处理原则而言,人工智能人脸识别训练的目的也往往和其人脸信息在互联网上公开的初始目的并不一致。在个人信息权利与个人信息处理原则方面对个人信息保护制度进行调整,允许人工智能企业对互联网公开途径获取的人脸图像与人脸识别信息进行训练,既符合我国《个人信息保护法》的相关规定,也有利于大规模数据的聚合与人工智能的发展。[61]当然,人工智能企业处理此类人脸信息也会带来社会风险,例如,大规模泄露人脸数据可能造成安全风险、人脸数据训练不当可能对特定人群造成歧视。[62]基于这些考虑,法律应对人工智能企业适用人脸信息安全保护、合规审计、影响性评估、信息泄露补救措施等法律责任。[63]

(三)人脸信息的执法隐私保护

执法隐私制度涉及的人脸保护典型场景包括个案侦查与公共监控。二者的共同之处在于均基于公共利益需求,且执法者与个体均构成纵向执法关系。从二者的共同性出发,执法隐私制度在这两种场景中都应当注重对执法者收集、传输、显示、存储、使用人脸信息进行全流程规范,[64]而非通过信息隐私制度中的个人信息权利而保护人脸信息。正如上文所述,执法隐私中的执法者与个人之间具有纵向侵入性与对抗性关系,这种关系不同于典型信息隐私场景下兼具互惠性与侵入性的信息处理关系。

当然,个案侦查与公共监控中的人脸信息保护也有不同之处。个案侦查涉及刑事案件,往往需要对具有私密性或秘密性的人脸信息进行侵入性侦查。这决定了个案侦查中的人脸信息保护需要法律对执法者进行更为特定具体的授权,对执法者进行更为严格的程序性规范。我国《刑事诉讼法》规定,采取“技术侦查措施”需要“根据侦查犯罪的需要,经过严格的批准手续”“必须严格按照批准的措施种类、适用对象和期限执行”。[65]美国宪法也规定法院发出的搜查令(warrants)必须“有合理根据(probable cause),以宣誓或代誓宣言保证,并具体说明搜查地点和扣押的人或物”,[66]一般性的搜查令(general warrants)与美国宪法相抵触。[67]中美等国家和地区的此类规定,都反映了法律需要对人脸信息的侦查进行严格规范。而且正如上文所述,此类规范需要突破美国法仅关注非公开场所的制度模块,将人脸信息侦查的全流程纳入法律规范框架。

相较而言,公共监控中的人脸信息具有事前一般预防的特征。就人脸视频监控对象而言,公共监控所收集的人脸信息涉及公共空间的所有个人,而非仅仅刑事个案所涉及的人脸信息。因此就制度而言,人脸视频监控并不需要获得一般性授权,整体坚持“统筹规划、合理适度、标准引领、安全可控”的原则。[68]不过也正是因为其权限较广,其部署应当仅限于公共空间,排除“安装图像采集设备后能够拍摄、窥视、窃听他人隐私”的区域、部位。[69]就监控目的而言,人脸公共视频监控包含了维护公共安全、信息追溯、威慑犯罪与侵权等目的。因此人脸公共视频监控虽然无法获得个体或公众授权,但应该在显著位置设置显著标识,告知公众存在监控视频。[70]公共监控的显著标识除了可以有效威慑犯罪与侵权,对于获取公众信任也有重要意义。[71]如果公共监控视频没有相关提示,甚至在公共空间秘密部署,则公共监控视频就可能变为一般性技术侦查措施,公众可能反而会因为此类秘密监控而感到不安全。

对于执法隐私制度涉及的非典型人脸保护场景,执法隐私制度也应进行改造性适用。例如,在企业等私主体的执法场景中,很多企业不仅进行人脸公共视频监控和维护其内部营业安全,而且对此类监控视频进行人脸识别与违法人员筛查。例如,上文提到的娱乐场所利用人脸识别技术筛查未成年人,网约车利用人脸识别技术筛查可疑犯罪分子。此类情形构成私人执法或委托执法(delegated enforcement)。[72]在本文看来,对于私人执法是否应当被允许,私人执法应当遵守何种程序,需要考虑多种因素。就执法权限而言,人脸识别所涉及的违法行为的严重性程度越严重,私人执法者越难找到人脸识别之外替代性的执法方法,人脸识别执法造成的执法错误或附带侵害越小,私人利用人脸技术进行执法就越应当被允许。[73]就执法规范而言,法律需要对私人执法进行严格规范,以避免私人执法对公众权益造成侵害。[74]《公共安全视频图像信息系统管理条例》对此已经做出若干规范,例如,“建立系统监看、管理等重要岗位人员的入职审查、保密教育、岗位培训等管理制度”“采取授权管理、访问控制等技术措施,严格规范内部人员对视频图像信息的查阅、处理”“建立信息调用登记制度,如实记录查阅、调取视频图像信息的事由、内容及调用人员的单位、姓名等信息”。[75]当私人主体进一步利用此类视频图像进行人脸识别,法律应当在私人主体遵守这些规定的同时,进一步制定其人脸识别执法的程序与制度。

五、结语:制度与场景如何对齐

本文对人脸信息保护进行整体图景分析,指出将人脸信息区分为技术性识别的人脸识别信息和自然识别的人脸图像信息,并对其进行二分保护,会带来很多问题。有的人脸识别场景并不适合适用信息隐私或个人信息保护制度,有的人脸图像信息也可以部分适用信息隐私或个人信息保护制度。人脸图像并不必然具有公开性、非私密性,而人脸识别信息也未必因为其生物性特征而变得具有敏感性、非公开性、私密性特征。这些现象产生的根源在于,人脸信息和其他所有个人信息保护一样,其保护取决于人脸信息流通与利用的场景。如果对人脸信息本身进行保护与属性认定,其结果就会导致制度适用悖论,很多制度将无法发挥作用或带来负面效果。

为了超越人脸信息保护的悖论,本文区分了隐私与个人信息保护的三种典型制度模块:侵权隐私、信息隐私与执法隐私。其中侵权隐私是一种横向性制度,这一制度主要维护横向社会主体之间的关系;信息隐私是一种倾斜性制度,这一制度主要维护信息能力不平等主体之间的关系;执法隐私则是一种纵向的制度关系,这一制度主要维护执法者与个体或公众之间的关系。无论是侵权隐私、信息隐私还是执法隐私,法律都需要通过对人脸图像信息或人脸识别信息的保护而实现合理的信息关系,促进横向性、倾斜性与纵向性关系中不同主体的信任。本文将人脸信息保护放置在这三种不同的制度模块下进行分析。其中有的场景完全对应某一制度模块的典型场景,因此其制度与场景高度对应。但更多的场景则并非完全对应某一制度,对于这些场景,应当对制度模块进行拆分、重组、改造或转型升级,并将改造后的制度适用于这些非典型场景。

人脸信息保护看似是一个小问题,但揭示了具体场景与法律制度对齐的一般原理。在法学研究与法律制度设计中,人们常常会根据直觉对法律适用对象进行分类。例如,在本文的例子中,人们的第一直觉往往区分人脸信息属于人脸识别信息还是属于人脸图像,同时对其进行二分保护。但正如本文研究所表明的,直觉性的分类可能反而带来更多问题。究其原因,直觉性的分类是人们根据日常经验所形成的第一反应,是人们理解与应对现实世界的表象性认识,而法律制度所要处理的问题往往具有复杂性,需要超越此类直觉性或表象性认识。法律需要既全面深入了解相关场景,又对制度的分类与功能进行更为准确地把握。如此,法律才可以在匹配的场景中适用相关制度,在不匹配的场景中改造与升级相关制度,场景与制度才能真正对齐。

【作者简介】

丁晓东,中国人民大学法学院教授。

【参考文献】

[1]参见毕玉谦、洪霄:《民事诉讼生成权利规制探析——以“人脸识别第一案”为切入点》,载《法学杂志》2020年第3期,第53-62页。

[2]参见《“戴着头盔去售楼处看房?细思极恐”》,澎湃新闻百家号网,https://m.thepaper.cn/baijiahao_10116251.(最后访问时间:2025年11月25日)。以Clearview公司为例,该公司在英国、法国、意大利都被课以高额罚款。

[3]See Facial Recognition Firm Clearview Fined €30.5 Million and Banned From Using ‘Invasive’ AI in the Netherlands, AFP, https://fortune.com/europe/2024/09/03/facial-recognition-clearview-fined-30-5-million-banned-invasive-ai-the-netherlands/.(2025-11-25 accessed).

[4]See S.146 - TAKE IT DOWN Act, Congress, https://www.congress.gov/bill/119th-congress/senate-bill/146.(2025-11-25 accessed).

[5]See Guidelines 3/2019 on the Processing of Personal Data Through Video Devices (Version 2.0), EDPB, https://www.edpb.europa.eu/our-work-tools/our-documents/guidelines/guidelines-32019-processing-personal-data-through-video_en.(2025-11-25 accessed).

[6]See Guidelines on Facial Recognition (2021), Council of Europe, https://edoc.coe.int/en/artificial-intelligence/9753-guidelines-on-facial-recognition.html.(2025-11-25 accessed).

[7]参见《欧盟人工智能法案》第5条第1款第e项。

[8]《中华人民共和国民法典》第1034条第3款。

[9]参见褚婧一:《人脸照片应归属于生物识别信息吗?》,载《行政法学研究》2024年第5期,第153-164页。

[10]参见雷丽莉:《脸上的权利:作为“非隐私个人敏感信息”的面部图像》,载《国际新闻界》2022年第2期,第157-176页。

[11]模块理论在域外学界已经几乎涉及每个部门法与法理学研究,See Joseph Farrell & Philip J.Weiser, “Modularity, Vertical Integration, and Open Access Policies: Towards a Convergence of Antitrust and Regulation in the Internet Age”,Harvard Journal of Law & Technology, Vol 17, No.1, 2003,pp.85-134; Jody Freeman & Daniel A.Farber, “Modular Environmental Regulation”,Duke Law Journal, Vol.54, No.4, 2005,pp.795-912; Margaret Jane Radin,“Boilerplate Today: The Rise of Modularity and the Waning of Consent”,Michigan Law Review, Vol.104, No.5,2006,pp.1223-1234; Henry E.Smith, “Modularity and Morality in the Law of Torts”, Journal of Tort Law, Vol.4, No.2,2011, pp.1-35; Margaret M.Blair, Erin O’Hara O’Connor & Gregg Kirchhoefer, “Outsourcing, Modularity, and the Theory of the Firm”, Brigham Young University Law Review, Vol.2011, No.2,2011,pp.263-314; Henry E.Smith, “Modularity in Contracts: Boilerplate and Information Flow”, Michigan Law Review, Vol.104, No.5,2006,pp.1175-1222; Christopher S.Yoo, “Modularity Theory and Internet Regulation”, University of Illinois Law Review, Vol.2016, No.1,2016,pp.1-62; Carol Rose, “Modularity, Modernist Property, and the Modern Architecture of Property”, Brigham-Kanner Property Rights Conference Journal, Vol.10,2021,pp.69-84; Lee Fennell, Slices and Lumps Division and Aggregation in Law and Life, Chicago: University of Chicago Press, 2019, pp.1-7.国内文献的研究,参见丁晓东:《数字法学:多维知识的组织方式》,载《华东政法大学学报》2024年第3期,第84-97页。

[12]See Facial Recognition Technology: Fundamental Rights Considerations in the Context of Law Enforcement, European Union Agency for Fundamental Rights, https://fra.europa.eu/sites/default/files/fra_uploads/fra-2019-facial-recognition-technology-focus-paper-1_en.pdf.(2025-11-25 accessed).

[13]参见胡凌:《刷脸:身份制度、个人信息与法律规制》,载《法学家》2021年第2期,第41-55页。

[14]参见李学军:《数字人身同一认定的技术力量与规制》,载《中国法学》2024年第1期,第145-165页。

[15]参见叶涛:《公共场所人脸识别技术应用的利益衡量与类型构造》,载《浙江社会科学》2022年第7期,第41-49页。

[16]See Illinois Biometric Information Privacy Act, 740 ILCS 14/1, Sec 2.(1)(A).

[17]参见《一般数据保护条例》第9条第1款。

[18]参见《一般数据保护条例》第9条第2款。

[19]See 740 ILL.COMP.STAT.ANN.§ 14/15 (2008); Woodrow Hartzog,“BIPA:The Most Important Biometric Privacy Law in the US?”, in Amba Kak, ed., “Regulating Biometrics: Global Approaches and Urgent Questions”, AI Now Institute, 2020, pp.96.

[20]《一般数据保护条例》重述第51条。

[21]See 16 C.F.R.§ 312.5 (2005).

[22]对此的讨论与批判,See Nila Bala, “The Danger of Facial Recognition in Our Children's Classrooms”,Duke Law & Technology Review, Vol.18,2020,pp.249-267.

[23]参见丁晓东:《敏感个人信息保护制度的解释性重构》,载《中国法学》2025年第2期,第168-187页。

[24]个人信息处理所带来的损害常常包含个体焦虑,而不一定完全是真实的侵害风险,See Danielle Keats Citron, “Risk and Anxiety: A Theory of Data-Breach Harms”,Texas Law Review, Vol.96, No.4,2018,pp.737-786。

[25]See The Secretive Company That Might End Privacy as We Know it, Kashmir Hill, https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html.(2025-11-25 accessed).

[26]California Civil Code, 1798.140.V(1) (L).

[27]《中华人民共和国民法典》第1036条第2款。

[28]参见《个人信息保护法》第13条第6款。

[29]参见《个人信息保护法》第27条。

[30]参见洪延青:《人脸识别技术应用的分层治理理论与制度进路》,载《法律科学》(西北政法大学学报)2024年第1期,第96页。

[31]参见张革新:《私密信息的范围界定与法律保护的完善》,载《中国政法大学学报》2023年第4期,第84-96页。

[32]See Gary T.Marx, “Murky Conceptual Waters: The Public and the Private”,Ethics and Information Technology, Vol.3, No.3, 2001,pp.157-169.

[33]参见赵精武:《人脸识别技术应用的利益权衡与合法性认定》,载《法律科学》(西北政法大学学报)2024年第1期,第101-110页。

[34]参见石佳友: 《人脸识别治理的国际经验与中国模式》, 载 《人民论坛》 2022年第4期, 第48-53页;See The Secretive Company That Might End Privacy as We Know it, Kashmir Hill, https://www.nytimes.com/2020/01/18/technology/clearview-privacy-facial-recognition.html. (2025-11-25 accessed)。

[35]See Samuel D.Warren & Louis D.Brandeis, “The Right to Privacy”, Harvard Law Review, Vol.4, No.5,1890,pp.193-220.

[36]See Samuel D.Warren & Louis D.Brandeis, “The Right to Privacy”,Harvard Law Review, Vol.4, No.5, 1890,p.196.

[37]See Robert Post, “Rereading Warren and Brandeis: Privacy, Property, and Appropriation”,Case Western Reserve Law Review, Vol.41, No.3,1991,pp.651-652.

[38]See Robert C.Post, “The Social Foundations of Privacy: Community and the Self in the Common Law Tort”, Yale Law School Legal Scholarship Repository ,Vol.77, 1989, p.966.

[39]参见石超、张蓓洁:《人脸识别个人信息的倾斜保护》,载《中国科技论坛》2022年第4期,第146-156页;王业亮:《论〈个人信息保护法〉的合作治理定位——基于倾斜保护型法的视角》,载《河北学刊》2024年第3期,第208-216页。

[40]参见《一般数据保护条例》第2条第2款。

[41]《个人信息保护法》第72条规定:“自然人因个人或者家庭事务处理个人信息的,不适用本法。”

[42]See Margot E.Kaminski,“Binary Governance: Lessons from the GDPR's Approach to Algorithmic Accountability”,Southern California Law Review,Vol.92, No.6,2019,pp.1529-1616.

[43]人脸信息保护也面临此类困境。参见张勇:《个人生物信息安全的法律保护——以人脸识别为例》,载《江西社会科学》2021年第5期,第157-168页;焦艳玲:《人脸识别的侵权责任认定》,载《中国高校社会科学》2022年第2期,第117-128页。

[44]这类监控法主要包括针对监控国内公民的《电子通信隐私法》(Electronic Communications Privacy Act)、针对监控国外公民的《1978年外国情报监视法》(Foreign Intelligence Surveillance Act of 1978)和针对监控恐怖主义活动的《爱国者法案》(Uniting and Strengthening America by Providing Appropriate Tools Required to Intercept and Obstruct Terrorism),See Pub.L.No.99-508, 100 Stat.1848.16; Pub.L.No.95-511, § 101, 92 Stat.1783; Pub.L.No.107-56, 115 Stat.272.

[45]索洛夫教授曾将美国执法隐私的法律体系称为“基于一句话对监管体系”(A Regulatory System in One Sentence)。See Daniel Solove, “Fourth Amendment Pragmatism”,Boston College Law Review, Vol.51, 2010,pp.1511-1538.

[46]See Smith v.Maryland, 442 U.S.735 (1979); Florida v.RUey, 488 U.S.445 (1989); California v.Greenwood, 486 U.S.35 (1988); Ulmois v. Caballes, 543 U.S.405 (2005).

[47]See Susan W.Brenner & Leo L.Clarke,“Fourth Amendment Protection for Shared Privacy Rights in Stored Transactional Data”,Journal of Law and Policy, Vol.14, No.1,2006,pp.211-280;Susan Freiwald,“First Principles of Communications Privacy”, Stanford Technology Law Review, Vol.5,2007,p.3; Stephen E.Henderson,“Beyond the (Current) Fourth Amendment: Protecting Third-Party Information, Third Parties, and the Rest of Us Too”,Pepperdine Law Review,Vol.34, No.4,2007,pp.975-1026.美国学界也存在为第三人理论辩护的观点,但此类观点更多是基于现实主义考虑,而非认同第三人理论的实质合理性。See Orin S.Kerr, “The Case for the Third-Party Doctrine”, Michigan Law Review, Vol.107, No.4,2009, pp.561-602.

[48]See Paul Gewirtz,“Privacy and Speech”, The Supreme Court Review,Vol.2011,p.165.

[49]See Neil M.Richards, “The Dangers of Surveillance”,Harvard Law Review, Vol.126, No.7,2013,pp.1934-1965.

[50]代表性研究,参见王绍光、胡鞍钢:《中国国家能力报告》,辽宁人民出版社1993年版,第1-33页。

[51]参见王鑫媛:《人脸识别技术应用的风险与法律规制》,载《科技与法律》2021年第5期,第93-101页;颜飞、刘文琦:《人脸识别技术在刑事司法中的场景化应用、风险及治理》,载《学术交流》2023年第4期,第59-73页;胡丹:《场景一致性:生物识别信息法律保护新路径》,载《甘肃政法大学学报》2024年第4期,第90-101页。

[52]参见杨华:《人脸识别信息保护的规范建构》,载《华东政法大学学报》2023年第2期,第78页。

[53]公共人物与公共事件中的媒体报道权利可能有所不同,域外有关案件,See Curtis Publ’g Co.v.Butts,388 U.S.130, 155 (1967); Rosenbloom v. Metromedia, Inc, 403 U.S.29, 47 (1971)。

[54]参见《e案e审|小女孩被父母绑树上教育,“路人”拍视频上传网络被判侵权》,澎湃新闻网,https://www.thepaper.cn/newsDetail_forward_10442223.(最后访问时间:2025年11月25日)。

[55]See Danielle Keats Citron & Daniel J.Solove, “Privacy Harm”,Boston University Law Review, Vol.102, No.3,2022,pp.793-864.

[56]对此问题的分析,参见丁晓东:《从个体救济到公共治理:论侵害个人信息的司法应对》,载《国家检察官学院学报》2022年第5期,第103-120页。

[57]See Neil Richards & Woodrow Hartzog, “The Pathologies of Digital Consent”,Washington University Law Review, Vol.96, No.6,2019,pp.1461-1504.

[58]See Marc Rotenberg, “Fair Information Practices and the Architecture of Privacy: What Larry Doesn’t Get”,Stanford Technology Law Review,Vol.2,2001,pp.1-34.

[59]对于是否应当允许商场使用此类技术,学术讨论存在争议。有意见认为,线上商家普遍运用个人信息对个体进行商品推荐和广告营销,线下商家如果不被允许此类技术,对于线下商家将产生不公平效应。但也有学者认为,人脸识别技术过于具有侵入性,应当原则上禁止其使用。See Ye-Eun Sung, “The Case for the Use of Facial Recognition Technology”,Boston College Law Schoo Intellectual Property and Technology Forum Journal, Vol.1,2020,p.1; Vincent Nguyen, “Shopping for Privacy: How Technology in Brick-and-Mortar Retail Stores Poses Privacy Risks for Shoppers”,Fordham Intellectual Property, Vol.29, No.2,2019,pp.535-570.

[60]参见郭春镇:《数字人权时代人脸识别技术应用的治理》,载《现代法学》2020年第4期,第19-36页。

[61]参见丁晓东:《公开个人信息法律保护的中国方案》,载《法学》2024年第3期,第3-16页;丁晓东:《论人工智能促进型的数据制度》,载《中国法律评论》2023年第6期,第175-191页。

[62]参见曾晨、李汶龙:《人脸识别治理的进路完善:从个人信息到社会公正》,载《学术交流》2024年第10期,第83-95页。

[63]基于篇幅与主题原因,本文未对利用侵犯个人信息罪的刑罚路径进行讨论,但从原理层面看,侵犯个人信息罪制度与信息隐私制度在原理层面更为一致,都是针对大规模处理行为的规制。当然不同的是,侵犯个人信息罪需要达到刑法上的违法性标准。参见魏汉涛:《人脸识别技术滥用行为刑法规制的顶层设计》,载《当代法学》2024年第2期,第3-15页。

[64]参见王仲羊:《侦查中人脸识别的权利路径与制度选择》,载《中国人民公安大学学报》(社会科学版)2025年第2期,第92-101页。

[65]参见《中华人民共和国刑事诉讼法》第150、152条;相关研究参见郑曦:《网络搜查及其规制研究》,载《比较法研究》2021年第1期,第21-32页。

[66]参见美国《宪法第四修正案》。

[67]See Andresen v. Maryland, 427 U.S.463, 480 (1976).

[68]参见《公共安全视频图像信息系统管理条例》第3条第2款。

[69]参见《公共安全视频图像信息系统管理条例》第8条第1款第4项。

[70]参见许可:《论新兴科技法律治理的范式迭代——以人脸识别技术为例》,载《社会科学辑刊》2023年第6期,第111-120页。

[71]在美国法背景下,也有学者指出,美国宪法第四修正案的目的是建立政府与公民之间的互相信任关系。See Scott E.Sundby, “Everyman's Fourth Amendment: Privacy or Mutual Trust Between Government and Citizen”,Columbia Law Review, Vol.94, No.6,1994,p.1771.

[72]See Kenneth A.Bamberger, “Regulation as Delegation: Private Firms, Decision-making, and Accountability in the Administrative State”,Duke Law Journal, Vol.56, No.2,2006,pp.377-468.

[73]对于人脸识别准确率与错误率的标准分析,See Ongoing Face Recognition Vendor Test (FRVT), Patrick Grother, Mei Ngan, Kayee Hanaoka, Joyce Yang & Austin Hom, https://pages.nist.gov/frvt/reports/11/frvt_11_report.pdf.(2025-11-25 accessed).

[74]参见于洋:《论个人生物识别信息应用风险的监管构造》,载《行政法学研究》2021年第6期,第101-114页;卢莹:《刑事侦查中人脸识别技术的应用与规制》,载《法治研究》2022年第6期,第144-160页;张潋瀚:《刑事诉讼中人脸识别证据材料生成特点与运用风险》,载《法治研究》2025年第2期,第82-94页。

[75]参见《公共安全视频图像信息系统管理条例》第16条第2款。

    进入专题: 人脸识别   人脸图像信息保护   侵权隐私   信息隐私   执法隐私  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 民商法学
本文链接:https://www.aisixiang.com/data/171163.html
文章来源:本文转自《行政法学研究》2026年第1期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统