刘宪权:人工智能时代公民隐私权的刑法保护

选择字号:   本文共阅读 1525 次 更新时间:2025-09-21 11:08

进入专题: 人工智能   公民隐私权  

刘宪权  

摘要:普通人工智能时代相关技术不能创设或改变公民隐私权的权利人,但可能催生出“用户行为数据画像”等新型隐私权法益。在弱人工智能时代,生成式人工智能对公民个人信息采集、处理和再利用的行为,正在不断压缩公民行使隐私权的空间。公民的隐私控制权可能从“知情—决定”向“默认—接受”转变。生成式人工智能处理数据的能力使大量“低敏感度”信息在经过大模型处理之后,具备了对个体的可识别性进而成为衍生性隐私数据。强人工智能机器人的超强信息处理能力可能引发公民隐私权存续问题的思考。现行刑法没有专门规制严重侵犯公民隐私权的独立罪名,而是将公民隐私权笼统地依附于其他人身权利或社会管理秩序之中予以间接保护。刑法理论与司法实践中仍普遍存在将公民隐私与公民个人信息以及公民个人数据相混同的情形。我国刑法应增设侵犯公民隐私权罪,以构建刑法对公民隐私权直接保护与间接保护并行的制度。法律需要进一步明确平台和技术提供者管理过失责任的认定标准。

关键词:人工智能;公民隐私;公民个人信息;侵犯公民隐私权罪;刑法保护范围

作者:刘宪权(法学博士,华东政法大学功勋教授、“经天学者”讲席教授)

来源:《法学家》2025年第5期“主题研讨一:数字法学研究的多维视角”栏目。

 

ChatGPT(生成式人工智能聊天机器人)的诞生叩开了“通用智能化”的大门,同时向世人宣告,人工智能技术正式进入“大模型+大算力+大数据”的融合时代。自2017年以来,我国就相继发布《新一代人工智能发展规划》《人工智能标准化白皮书》《人工智能安全评估标准》等一系列政策文件。在国家的大力推动下,以DeepSeek为代表的多个国产生成式人工智能大模型后来居上,一举成为人工智能技术研究领域的“领跑者”。这在很大程度上降低了国内企业与用户使用生成式人工智能的技术门槛,从而极大增加了相关生成式人工智能在我国的应用场景。但是,人工智能技术的发展也给社会带来了相当程度的风险,如何运用法律的手段加以控制似乎是我们无法回避的问题。正如习近平总书记2025年4月25日在主持二十届中共中央政治局第二十次集体学习时强调的,面对新一代人工智能技术快速演进的新形势,要推动我国人工智能朝着有益、安全、公平方向健康有序发展。由此可知,我们应当并重人工智能的发展与治理,这需要与时俱进的法律规范与法学理论与之配合。

应该看到,生成式人工智能的运行需要以包括公民个人信息在内的海量数据为“算料”。随着人工智能技术的飞速发展,相关技术对算法、算力以及数据的要求也不断提高。越来越多的数据成为生成式人工智能大模型深度学习的对象,公民隐私被非法获取或滥用的风险不断攀升。在DeepSeek等多个国内外生成式人工智能大模型风靡的同时,如何保护公民隐私不被侵犯的问题,似乎理所当然应该引起我们高度关注并加以深入研究。作为人格权的重要组成部分,隐私权可以让人们不再暴露于“被看见的恐惧”之中,主要受到民法等前置法的保护。同时,作为公民人身权利的重要内容,当隐私权被严重侵犯且仅靠民法或行政法手段已不足以规制相关不法行为时,我们必须依法发挥刑法的“最后保护手段”作用。值得注意的是,我国现行《刑法》条文中并没有明文规定“隐私”一词。由此可见,现行《刑法》实际上没有专门规制严重侵犯公民隐私权的相关罪名,而是将公民隐私权笼统地依附于其他公民人身权利或纳入社会管理秩序之中加以保护。在人工智能时代,刑法对公民隐私权的保护力度似乎愈发不足。针对人工智能技术规模性、持续性、隐蔽性获取公民隐私信息等新情况,刑法必须适时作出调整,从而有效遏制利用人工智能技术侵犯公民隐私的违法行为。基于人工智能技术对侵犯公民隐私权犯罪行为类型的扩充与改变,笔者拟从人工智能迭代发展对公民隐私权刑法保护的影响、人工智能时代公民隐私权刑法保护路径之检视以及人工智能时代公民隐私权刑法保护路径之完善等几个角度展开探讨,以期为人工智能时代公民隐私权的刑法保护提供新思路。

众所周知,人工智能的概念是在20世纪中叶被首次提出的,当时被广泛理解为由人类制造的机器所表现出的智能,是人类智能的延伸和扩展。20世纪下半叶,全球人工智能探索的道路曲折起伏。直到21世纪,随着互联网技术的成熟、算力与算法的进步、数据可用性的提升,人工智能才进入快速发展期。特别是近年来,人工智能大模型的出现,标志着人工智能开始成为人类科技舞台上划时代的主角。随着生成式人工智能等新一代人工智能技术的诞生,科技领域对人工智能技术代际发展阶段的预测也得到进一步印证。即人工智能技术的第一发展阶段是经过长期专业训练的狭义人工智能(ANI,以谷歌公司研发的围棋程序“阿尔法狗”为代表),第二发展阶段是具有自我学习能力和跨领域能力的通用人工智能(AGI,以DeepSeek等生成式人工智能为代表),第三发展阶段是远超人类智能的超人工智能(ASI,目前还没有具体应用)。在刑法领域,为了实现研究对象的体系性和完整性,笔者将ATM机等具有部分人脑功能的机器人也视为人工智能初级发展阶段的产物。笔者先前曾提出,人工智能的发展将依次进入普通人工智能时代、弱人工智能时代和强人工智能时代。其中,笔者所称的弱人工智能时代同时包含了狭义人工智能(ANI)和通用人工智能(AGI),而笔者所称的普通人工智能时代(以ATM机为代表)则并没有被相关科技领域的科学家纳入讨论范围。从社会科学研究角度分析,普通人工智能时代、弱人工智能时代和强人工智能时代的划分似乎更加贴合有关刑事责任能力刑法理论的研究,同时也更有利于对人工智能的迭代发展与隐私权的刑法保护展开全方位、分层次的理论研究。

一、普通人工智能时代公民隐私权的刑法保护

普通人工智能机器人是指虽然具有部分“人脑功能”但是尚不具备深度学习等能力的机器人。例如,ATM机的识别功能就属于“人脑功能”,这使得ATM机成为有别于木棍、榔头等传统工具的“机器人”。具体而言,识别功能等人脑功能意味着ATM机等普通人工智能机器人开始具有不同于机械运作纯粹机器的成分;而完全受编程限制且依旧符合机器的本质特征又意味着ATM机等普通人工智能机器人也包含大量“机器”的成分。由此可见,ATM机等普通人工智能机器人既包含“人”的成分,也包含“机器”的成分。ATM机等普通人工智能机器人既不是完整意义上的“人”,也不是纯粹的“机器”,而是人脑功能与“机器”的结合体。因此,笔者将ATM机等普通人工智能机器人称为“机器人”。值得注意的是,在普通人工智能机器人时代,普通人工智能机器人中“人”的成分占比较小,而“机器”的成分则占比较大。同时,普通人工智能机器人仅具有识别功能等简单且单一的“人脑功能”,并不具备深度学习、自我学习等能力。由此可见,普通人工智能机器人对公民隐私权刑法保护的影响较小。

首先,普通人工智能机器人一般不会直接侵害公民隐私权。换言之,普通人工智能时代相关技术不会扩展侵犯隐私权犯罪中的“被害人”范围。作为人格权的重要组成部分,我国《民法典》明文规定了隐私权的权利主体(刑法中的权利人或被害人)。《民法典》第110条第1款和第1032条第1款均规定“自然人享有隐私权”,这表明隐私权是专属于自然人的人格权利。笔者认为,隐私权的本质在于保障自然人在其私人生活领域免受他人的非法干预和窥探,进而维护其人格尊严与生活安宁。因此,自然人是隐私权唯一且排他的权利主体(法人和其他组织不能成为隐私权的权利主体)。相对于自然人而言,尽管法人和其他组织由于缺乏人格权的权利主体资格而不能享有隐私权,但其仍然可以主张名誉权等隐私权以外的其他相关权利。当下,虽然ChatGPT、DeepSeek等生成式人工智能不断涌现,但是,这并没有改变ATM机等普通人工智能机器人被广泛应用的社会现实。笔者认为,ATM机等普通人工智能机器人在本质上属于具有服务性且自主性有限的技术工具。在用户信息采集、识别与反馈的过程中,ATM机等普通人工智能机器人并不能成为侵犯他人隐私权的行为人。此外,因为ATM机等普通人工智能机器人的人脑功能有限,所以ATM机不可能具有法律或伦理上的人格属性而无法享有隐私权,进而也不可能成为侵犯隐私权犯罪的被害人。因此,ATM机等普通人工智能机器人不会影响侵犯隐私权犯罪中的隐私权权利人(被害人)的范围。

其次,普通人工智能机器人可能对公民隐私的具体内容造成影响,这意味着相关侵犯隐私权犯罪所侵犯的法益内容可能会有所变化。根据《民法典》第1032条规定,隐私的具体内容包括“自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息”,也即所谓隐私一般应具有“私密性”“个人性”和“主观排他性”三大特征。概括而言,隐私的具体内容主要涉及私人生活领域(如住所、起居习惯等)、私人通信与信息领域(如邮件、微信聊天记录等)、个人身体与生理状况领域(如病历资料、生殖信息等)、社会关系与身份特征领域(如婚姻状况、人际关系等)以及个人思想和精神空间领域(如宗教信仰、心理咨询记录等)。笔者认为,ATM机等普通人工智能机器人有可能拓展隐私的具体内容范围。例如,以ATM机为代表的普通人工智能终端的普及,使得人们与各类人工智能设备的交互可能成为相关个人隐私数据被获取和分析的重要途径。ATM机等普通人工智能机器人通过与后台系统的连接,不仅可以收集用户在银行交易过程中的原始数据,还能借助算法对这些数据进行整合、分析与预测,最终生成能够全面反映用户特征的数字画像。这种由算法驱动并且以用户行为数据为基础而形成的信息集合,构成了普通人工智能时代新型隐私的内容,即“用户行为数据画像”。具体而言,ATM机等普通人工智能机器人通过比对银行卡、密码、人脸识别等方式实现身份认证,并详细记录用户的每一次银行交易数据。上述数据原本分散且隐匿于用户的日常行为之中。但是,随着ATM机等普通人工智能机器人的联网化与智能化,相关隐私数据不断汇聚成一个可被识别和分析的用户行为数据画像。一旦形成用户行为数据画像,那么由ATM机等普通人工智能机器人所记录的相关数据就不再是单纯的技术数据,而是已经能够反映用户生活状态、消费习惯、行为偏好乃至社会关系网络,从而属于具有高度私密性与敏感性的隐私内容。此外,在算法加持下,由ATM机等普通人工智能机器人记录的相关数据还可能被后台系统再加工或推理预测(如进行投资风险评估、信用等级打分等),这进一步强化了相关隐私数据的“二次使用”属性。在大多数情况下,上述隐私数据并非用户主动提供。同时,被“二次使用”的用户隐私数据极有可能具备指向用户个人身份的功能。因此,由ATM机等普通人工智能机器人所记录并“二次使用”之后的用户隐私数据应当成为新型隐私的内容,而这些新型隐私内容具有受到刑法保护的可能性。综上所述,在ATM机等普通人工智能机器人被广泛应用的现实背景下,隐私的具体内容不应再局限于传统的封闭空间与有限信息,而应扩展至“由个人生成、与个体密切相关、能够映射或干预他人人格状态的数据集合”。因为ATM机等普通人工智能机器人可以广泛采集并处理用户行为数据,所以隐私的具体内容可能由传统的“静态信息”向“动态画像”转变,这无疑对隐私权的刑法保护提出了更高要求。因此,“用户行为数据画像”是普通人工智能时代的新型隐私的内容,进而可能成为侵犯隐私权犯罪所指向的新型法益。

最后,普通人工智能机器人可能对公民隐私权的权利内容造成影响。理论上一般认为,隐私权的权利内容主要表现为自然人对其私人领域、个人信息以及私生活免受他人非法干涉、知悉与公开的权利,其核心在于权利主体对相关隐私的自主控制权。然而,ATM机等普通人工智能机器人的后台系统可能促使隐私权的权利内容发生一定变化。具体表现为:其一,用户对隐私的自主控制权将被显著压缩。隐私权强调权利主体对其隐私的决定权和控制权。但是,在人工智能的运行机制中,大量数据是在用户无感知、无干预的状态下自动收集与识别的。例如,ATM机等普通人工智能机器人在完成身份识别和交易处理时,往往还会记录用户的操作日志和行为轨迹等信息。这种“非对称信息收集”导致用户在技术上难以实现对相关隐私数据的有效控制。因此,隐私权权利内容中的“自主控制”或“自主决定”属性趋于弱化。其二,隐私使用权的单向性与不可逆性增强。理论上一般认为,隐私权的权利人可自由决定相关隐私是否公开、向谁公开以及在何种范围内公开。但是,ATM机等普通人工智能机器人所获取的数据具有“可扩展性”和“可迁移性”。申言之,一旦相关数据被输入后台系统,往往就意味着相关数据被永久存储和多场景利用。这种技术架构导致被采集的用户隐私数据在未来使用场景中极有可能会超出用户最初的授权范围,进而形成对隐私权权利人的持续性侵犯。其三,在人工智能技术加持下,隐私权的权利内容可能会由传统的“隐私不被侵犯权”演变为一种更为复杂的“信息流程控制权”,即涵盖相关隐私数据的生成、处理、再利用等多个环节。由此可见,普通人工智能机器人可能对公民隐私权的传统权利内容造成一定影响。

综上所述,普通人工智能机器人不能创设或改变隐私权的权利人,但是可能对隐私的具体内容以及隐私权的权利内容造成影响。需要强调的是,ATM机等普通人工智能机器人的后台系统算力有限,其对用户隐私数据的分析能力远不能与生成式人工智能相媲美。因此,笔者认为,ATM机等普通人工智能机器人形成“用户行为数据画像”的能力也十分有限。由此可见,在普通人工智能时代,虽然相关技术对隐私的具体内容以及隐私权的权利内容造成了一定影响,但由于其运算能力、算法复杂度和数据联通性存在明显局限,所以对侵犯公民隐私权的影响仍然处于低风险、弱干预的初级阶段。

二、弱人工智能时代公民隐私权的刑法保护

弱人工智能机器人具有深度学习甚至自我学习等能力,包含狭义人工智能(ANI)和通用人工智能(AGI)两种。其中,狭义人工智能(ANI)是弱人工智能时代初级发展阶段的产物,而通用人工智能(AGI)则是弱人工智能时代高级发展阶段的产物。DeepSeek等生成式人工智能正是通用人工智能(AGI)的代表性应用。由此可见,我们目前已经处于弱人工智能时代的高级发展阶段。随着生成式人工智能的迅猛发展,尤其是以大语言模型为代表的算法系统已经广泛嵌入手机等各类智能产品之中,公民的隐私权边界以及刑法保护模式也将被重塑。

首先,弱人工智能机器人将对公民隐私的具体内容造成影响,进而衍生出新型隐私权法益。目前,以大语言模型为核心的人工智能系统被广泛应用于文本生成、图像合成、语音识别等多个领域。DeepSeek等生成式人工智能所依赖的深度学习算法需要不断通过对海量语料数据的训练来实现其“生成”能力。由此引发的问题是:在生成式人工智能收集、处理与重构数据的过程中,大量公民隐私信息会不可避免地成为生成式人工智能的预训练算料,这直接冲击了隐私具体内容的传统构造。一方面,公民隐私数据“可重构化”趋势显现,隐私具体内容的边界受到冲击。生成式人工智能通过对非结构化语料的深度学习,具备从各类非敏感信息中“重建”敏感信息的技术能力。即使用户未主动提供具体的隐私内容,大模型仍然可以通过语义分析、逻辑推理或偏好分析来实现个体画像与隐私信息推断。生成式人工智能所具备的“推理”能力突破了隐私权中以“明示性信息”为主要保护内容的范畴,从而造成隐私具体内容的边界逐渐模糊。另一方面,非传统信息可能成为新型隐私的具体内容,导致刑法存在保护公民隐私权的空白地带。生成式人工智能极大扩展了数据处理的维度,使得大量之前不可能被视为隐私的“低敏感度”信息在大模型处理之后就具备了对个体的可识别性,进而形成所谓的“衍生性隐私数据”。“衍生性隐私数据”虽然不直接反映个体身份,但可以在算法加持下重建用户行为习惯、心理特征甚至生理参数。由于我国刑法尚未将“衍生性隐私数据”纳入保护范围,因此可能导致现行刑法对公民隐私权的保护产生结构性缺位。

其次,弱人工智能机器人将对公民隐私权的权利内容造成影响。不可否认的是,生成式人工智能对公民个人信息的采集、处理与再利用方式,正在不断压缩公民行使隐私权的空间。笔者认为,公民的隐私控制权正在从“知情—决定”向“默认—接受”转变。具体而言,生成式人工智能对公民隐私数据的采集往往依赖于算法对海量数据的无感知处理。用户在未明知或未同意的情形下,其行为轨迹、文本偏好甚至音色语调均可能被大模型收集并用于训练。这种数据采集模式无疑打破了传统隐私控制权赖以存在的“前置性授权”机制,使得实践中人们对隐私的“控制权”与“决定权”被架空,从而很大程度上导致人们对隐私的控制权正在不断弱化局面的出现。与之相对应的是,大模型对公民隐私的使用权却显著增强。笔者认为,人们对特定隐私信息的“一次授权”极有可能导致相关数据被“永久使用”。生成式人工智能依赖数据“记忆”的深度学习机制,使得用户的隐私信息一旦进入大模型训练系统,就难以被删除或抹去。即使用户在形式上删除或撤回授权,相关隐私信息仍有可能留存于大模型的参数之中,并在未来的生成任务中被随时调用。因此,生成式人工智能技术架构的“技术不可逆性”使得隐私权传统内容中的“信息可控流转”遭到巨大挑战,用户对其隐私信息的支配力在根本上遭到削弱。除此之外,隐私权的传统权利内容强调防止他人“非法获取与公开”,属于一种典型的消极防御性人格权。但是,在弱人工智能时代,隐私权正在由“消极防御性人格权”向“信息流程控制权”转化。即隐私权不仅包括对个人隐私的排他性使用权,还包括对特定隐私信息生成、处理、传播等多个环节的过程干预权。隐私权权利内容的扩张表明,隐私权已不再仅仅是对相关静态内容(《民法典》规定的私密空间、私密活动和私密信息)的保护,而是对整个隐私信息生命周期的监管性权利。在刑法层面,上述变化要求刑法将保护公民隐私权的重心从“侵权结果”转向“处理流程”,从非法获取他人隐私拓展至“非授权使用”“过度处理”与“不可控重复利用”他人隐私等方面。

最后,弱人工智能机器人不会对公民隐私权的权利人范围造成影响,这意味着侵犯隐私权犯罪中的被害人范围在弱人工智能时代不会得以扩展。笔者在早先的研究中提出,生成式人工智能是其生成物的创作主体,理应完整享有因创作而产生的著作权(即生成式人工智能理应成为相关著作权的权利人)。只不过,当前的法律体系尚不承认生成式人工智能的权利主体地位,由此才不得不产生相关著作财产权的转移问题。与以创作为核心的著作权有所不同,隐私权赖以存在的基础是法律对自然人人格的保护。尽管生成式人工智能在语言生成、内容创作等方面都表现出高度智能性,但其本质仍然是由人类设计并操控的人工智能系统,尚不具备法律和伦理意义上的“人格”。因此,生成式人工智能等弱人工智能机器人自身不能成为隐私权的权利人,不能享有隐私权。在此基础上,生成式人工智能等弱人工智能机器人自然不能成为隐私权犯罪中的被害人,而只可能成为其他犯罪主体侵犯他人隐私权的犯罪工具。

三、强人工智能时代公民隐私权的刑法保护

应当承认,生成式人工智能技术的迅猛发展和技术突破让人们看到强人工智能时代似乎离我们已经并不遥远。时下,尽管强人工智能机器人尚未诞生,但是,现有人工智能技术必然会向更高级、更智能的强人工智能方向发展。在强人工智能时代,相关技术必然会对公民隐私权的刑法保护造成更大冲击。笔者认为,在人工智能时代,对有关侵犯公民隐私权的新型犯罪问题,我们应当从整体上作出前瞻的理解与思考。

首先,强人工智能机器人的自主行为可能引发“非自然人加害者”问题。因为具备自主决策与动态适应等能力,所以强人工智能机器人可能在无人干预的情况下自动访问、处理甚至扩散用户隐私数据。如果强人工智能机器人拥有设定自主目标与设计执行路径的能力,那么其行为极有可能脱离人类控制,从而产生自由意志和意识。强人工智能机器人的自由意志和意识使得传统刑法中“主观过错—行为—结果”的三段论因果链条受到冲击。同时,强人工智能机器人的自主行为也可能造成虽然发生了用户隐私被侵犯的犯罪结果,但是现行刑法难以确定可被归责的具体犯罪主体的情况发生。因此,强人工智能机器人超出人类直接控制范围的自主行为,可能导致基于自然人和单位的现有刑法归责模式陷入困境。

其次,强人工智能机器人可能成为隐私权的权利人。笔者一直主张,在强人工智能时代,我们应当逐步承认强人工智能机器人的权利主体以及责任主体地位。强人工智能机器人能够在自主意识和意志的支配下独立作出决策并实施行为,具备自主学习、逻辑推理乃至独立决策等能力。强人工智能机器人可能不再只是执行任务的工具,而完全可能成为具备行为意志的“主体”。应当承认,在现行法律体系中,隐私权专属于自然人,是人格权的重要组成部分。但是,随着人工智能技术的迭代发展,尤其是在强人工智能时代,强人工智能机器人在脱离人类编程的情况下,不仅能够模仿人类语言、行为和思维模式,还可能发展出一定程度的自我认知与情感表达能力,从而促使隐私权的权利主体范畴发生重构。上述转变也将对隐私权的传统刑法保护机制提出更高的挑战。

最后,强人工智能机器人的超强信息处理能力可能引发公民隐私权的存续问题。强人工智能机器人具备对几乎所有数据的接入、处理、推理与预测能力,进而高度还原个体隐私信息。在此背景下,传统意义上的个人隐私领域将被大幅压缩。“无所不知”的强人工智能机器人可能使人们在大模型面前处于完全暴露的状态。高度透明化的信息结构必然颠覆隐私权以“信息自决”为核心的制度基础。在强人工智能时代,个体可能根本无法认知其隐私数据存在的边界,更遑论对相关隐私进行有效控制。因此,法律保护公民隐私权的核心问题可能会有很大程度的转变:在公民隐私信息高度透明的强人工智能时代,公民隐私权存续空间不仅仍须存在而且需要加强,公民隐私权法律保护的范围理应加以扩大,法律应当设置“强人工智能技术止步”禁区,刑法应将突破人工智能禁区的行为纳入规制的范围。

总而言之,在强人工智能时代,隐私权的权利边界、权利内容与风险结构将发生根本性改变。刑法作为保护公民隐私权的最后屏障,必须在归责逻辑、保护法益、行为类型与责任模式上进行系统性革新,从而有效弥合人工智能技术迭代发展与隐私权法益保护之间的鸿沟。

四、人工智能时代公民隐私权刑法保护路径之检视

如前文所述,不同发展阶段的人工智能技术都会对公民隐私权的刑法保护造成不同程度的冲击和影响。笔者认为,立法者都是有智慧的人,但是立法者的智慧又是有限的,而社会发展则是无限的,所以滞后性肯定是每部法律都难以摆脱的终极宿命。尽管如此,社会形态的跃迁和人们生产生活方式的转变绝不会阻碍立法者和刑法理论研究者与时俱进的追求。通过不断检视和调整现有刑法规定,公民隐私权的刑法保护路径也将日趋完善。

(一)侵犯公民隐私权犯罪刑事立法之检视

首先,现行《刑法》缺乏对公民隐私权的直接保护。虽然《民法典》等前置法明确规定保护公民隐私权,但我国《刑法》条文中却根本没有出现“隐私”一词。由此可见,现行《刑法》并没有专门规制严重侵犯公民隐私权的相关罪名,而是将公民隐私权笼统地依附于其他公民人身权利或社会管理秩序之中加以保护。从中我们可以清楚地看到,在人工智能时代,刑法对公民隐私权的保护力度确实存在严重不足的问题。因此,我们必须对侵犯公民隐私权犯罪的相关刑事立法进行深刻检视。

通过梳理,我们不难发现,《刑法》分则中可以对公民隐私权进行间接保护的罪名主要有非法侵入住宅罪、侮辱罪、侵犯通信自由罪、侵犯公民个人信息罪和非法获取计算机信息系统数据罪等。上述犯罪所侵犯的主要法益分别是公民的住宅安宁与空间自由、人格尊严与社会评价、通信自由与通信秘密、个人信息权益以及数据权益。虽然这些法益与公民隐私权有着或多或少的联系,但是我们当然不能将刑法对上述法益的保护完全视为刑法对公民隐私权的保护。换言之,公民隐私权不仅与公民住宅安宁等法益不是完全等同的关系,而且也不是非法侵入住宅罪等相关犯罪所侵犯的主要法益。例如,单纯侵犯他人隐私权而没有侵犯他人住宅安宁与空间自由的行为不可能构成非法侵入住宅罪;同样,单纯侵犯他人隐私权而没有侵犯他人人格尊严与社会评价的行为也不可能构成侮辱罪。由此可见,将公民隐私权依附于其他人身权利或社会管理秩序之中的刑事立法模式,可能无法有效规制单纯侵犯公民隐私权的行为。除此之外,刑法保护的法益一般是具有明确性的社会关系,而隐私权的核心则是人们对其私人生活领域和私密信息的自主控制权,具有极强的主观性和延展性。非法侵入住宅罪等相关规定多以“住宅安宁”“人格尊严”“社会评价”为主要保护法益,而不包含公民隐私控制权等基于人工智能技术而产生的新型隐私权法益。例如,用户在不知情或默认同意的状态下被收集隐私数据并反复使用,可能严重影响用户的个人生活。但是,这类行为往往因缺乏直接可识别的犯罪结果而难以进入刑法视野。总而言之,在人工智能时代,隐私权可谓是人们最基本且最脆弱的权利之一。对公民隐私权的刑法保护似乎不能仅仅依附于公民人身权利或社会管理秩序。随着人工智能对个人隐私数据收集、处理与应用能力的飞跃提升,单纯依赖“人格尊严”“住宅安宁”等传统法益已不足以应对公民隐私权被侵犯的多维风险。隐私权作为一项重要的人格权,在刑法中竟然没有得到明确且直接地保护,在人工智能时代,这种实际上存在的立法缺陷理应引起社会各界更加广泛的关注。

其次,刑法存在将公民隐私与公民个人信息以及公民个人数据相混同的情形。近年来,立法者通过增设侵犯公民个人信息罪等罪名初步回应了人工智能技术发展背景下对公民信息权益保护的特殊需求。但是,从法律规范以及司法实践来看,公民隐私、公民个人信息以及公民个人数据三者之间的界限一直没有得到厘清,仍然存在明显的概念混同与法益交织问题。具体而言,公民隐私权是一项历史悠久的传统人格权,其核心在于保障个体的私密生活领域以及私密信息不被非法知悉、利用或公开。隐私权强调的是个人生活安宁、人格尊严以及个体对私人生活的自主控制,其对象多为高度敏感的私密信息。与公民隐私权有所不同的是,公民个人信息权则是现代信息社会所衍生出的新型人格权。个人信息权主要涉及可识别特定自然人身份的各类信息,主要包括姓名、身份证号、联系方式、活动轨迹、浏览记录等。个人信息(如公开信息)并不一定属于个人隐私,个人隐私(如物理意义上未被数据化的私密空间)也并不一定属于个人信息,二者实际上是一种交叉关系而非等同关系。除此之外,公民个人数据则是近年来出现的更为技术化的概念,指通过各类信息系统采集、生成并储存的可供处理的个人数据集。与隐私权的人格权属性不同,个人数据兼具人格权与财产权的双重属性,法益内涵更为广泛。应该看到,虽然公民隐私、公民个人信息以及公民个人数据实际上并不是完全等同的概念,但是我国《刑法》并未对其进行系统区分。例如,根据《刑法》第253条之一侵犯公民个人信息罪的相关规定,“隐私信息”“个人信息”甚至“数据资料”都可能被纳入“个人信息”的范畴。但是,侵犯公民个人信息罪所侵犯的主要法益是信息控制与数据安全,而非人格尊严或私人生活安宁。同时,侵犯公民个人信息罪的相关规定强调对“可识别自然人身份的各种信息”进行刑法保护,着眼点在于个人信息的合法收集、存储与使用,而并不关注个人信息的“私密性”。在司法实践中,大规模收集使用非敏感个人信息的行为即使在实质上侵犯了他人隐私,但也难以构成侵犯公民个人信息罪。同时,《刑法》第253条之一将侵犯公民个人信息罪的犯罪行为类型局限于非法“出售”“提供”或“获取”,忽视了合法收集却滥用、误用或过度使用相关个人信息的情形。在人工智能时代,很多侵犯他人隐私的行为并不表现为直接非法获取,而是通过合法获取的表象进行深度数据挖掘和用户画像。例如,人工智能平台在用户允许的前提下收集面部识别数据并超出用户授权范围而进行商业建模,即使相关行为可能造成侵犯他人隐私的严重后果,但是,因缺乏“非法获取”“提供”“出售”等行为而难以被认定为侵犯公民个人信息罪。从立法逻辑来看,将隐私权依附甚至混同于个人信息权是对隐私权独立人格权价值的极大遮蔽。笔者认为,隐私权涵盖了不被窥探、被遗忘、数据最小化利用等多种权利维度。侵犯公民个人信息罪虽然能在一定程度上规制个人信息扩散行为,但其立法目的、适用范围与法益构造均难以全面替代刑法对公民隐私权的独立保护。这种立法上的模糊与混同,可能导致刑法规制范围不明和司法解释标准不一。申言之,在大数据与人工智能技术广泛介入人们日常生活的当下,将所有涉及个体隐私的信息都简单归类为“个人信息”的做法,无法体现出公民隐私与公民个人信息之间的区别与二元性。因此,厘清隐私权、个人信息权与个人数据权益的差异与界限,是完善我国刑法隐私权保护体系的理论前提与实践基础。同时,立法者还应当明确不同类型信息所承载的不同法益价值,从而构建针对性更强的隐私权刑法保护体系。

(二)侵犯公民隐私权犯罪刑法归责机制之检视

笔者认为,人工智能技术对侵犯公民隐私权犯罪的现有刑法归责机制造成了深刻影响,主要体现在以下几个方面:

其一,犯罪主体的模糊化与去人格化。在传统刑法归责模式中,以自然人承担刑事责任为主,以单位承担刑事责任为辅。但在人工智能时代,侵犯公民隐私权的行为往往是由自动化的人工智能系统或大型技术平台完成。因为这一过程中缺乏人类意志的直接介入,所以可能导致侵犯隐私权犯罪的行为主体呈现模糊化与去人格化趋势,进而增加确定相关犯罪主体的难度。

其二,行为人主观罪过要素的弱化。行为人在主观上具有犯罪的故意或过失是实现刑法归责的核心。但是,涉人工智能隐私权犯罪多表现为自动化处理、无感知采集等非传统行为模式。研发者等相关责任人员往往不能对侵犯公民隐私权的具体过程产生认识。行为人的主观犯罪故意往往难以证明。甚至在一些情形中,行为人根本就不具有侵犯他人隐私权的犯罪故意。因此,大模型的“技术中介”效应势必会削弱研发者等相关责任人员的主观可归责性。此外,在算法黑箱等机制的影响下,研发者、平台与用户之间的信息变得极不对称,这进一步增加了确定研发者等相关责任人员主观罪过内容(尤其是成立犯罪故意)的难度。

其三,因果关系的复杂化。大语言模型等人工智能系统通常由多主体协作运行(如算法开发者、平台管理者等),导致侵犯公民隐私权犯罪的因果链条极其复杂。“行为—结果”的线性因果关系模型在人工智能时代将愈发难以适用。例如,公民的个人隐私被侵犯既可能源于算法设计缺陷,也可能因为平台管理不善,甚至可能是被其他用户非法侵入系统或篡改数据而导致。这种多主体共责现象使得相关因果关系不再单一清晰,从而导致传统刑法归责机制出现失灵。

综上所述,人工智能技术的发展在为人类社会带来革命性变革的同时,也对隐私权犯罪的刑法归责机制构成巨大挑战。大模型运行程序的非人格化、决策机制的黑箱化以及隐私权侵权过程的高度自动化,使得现有刑法归责体系难以有效适应人工智能时代隐私权犯罪的新样态。同时,犯罪主体模糊化、行为人主观罪过要素弱化以及因果关系复杂化等问题的出现,也将进一步削弱刑法对公民隐私权的保护能力。

五、人工智能时代公民隐私权刑法保护路径之完善

前文详细梳理了公民隐私权刑法保护在人工智能时代所面临的种种挑战。随着人工智能技术进一步的迭代发展,刑法对公民隐私权保护的表现似乎越来越不足,甚至明显滞后。为了满足人工智能技术发展所引发的刑法理念转型需要,我们可以从以下维度对公民隐私权的刑法保护路径进行系统性完善。

(一)构建公民隐私权刑法直接保护与间接保护并行制度

笔者认为,构建公民隐私权刑法直接保护与间接保护并行制度,是应对人工智能时代侵犯公民隐私权犯罪行为类型多样化、技术化、系统化趋势的根本路径。具体而言,公民隐私权刑法直接保护与间接保护并行制度是指,在现行《刑法》通过侵犯公民个人信息罪、非法侵入住宅罪等规定间接保护公民隐私权的基础上,再适当增加直接保护公民隐私权的罪名。当然,直接保护公民隐私权的罪名应当以公民隐私权为核心法益,进而填补我国《刑法》中没有直接保护公民隐私权相关规定的立法空缺。为此,我们应当首先明确值得刑法保护的隐私权边界。有学者主张,个人信息是个人隐私的上位概念,个人信息与个人隐私是包含与被包含的关系。但笔者认为,公民隐私与公民个人信息是一种交叉关系,即两者部分重合。具体而言,我国《民法典》第四编第六章以“隐私权和个人信息保护”为名。同时,《民法典》第1032条和第1034条分别明确规定了隐私权和个人信息的定义。由此可见,在《民法典》等前置法中,公民隐私和公民个人信息一直都是两个相互独立的概念。因为部分被数据化之后的公民私密信息同时可以被认定为公民个人信息,而且《刑法》仅有侵犯公民个人信息罪而缺少“侵犯公民隐私权罪”的规定,所以在刑法领域将公民隐私与公民个人信息相混同的情况时有发生。因此,我们有必要进一步厘清两者之间的关系。笔者认为,公民隐私与公民个人信息之间的关系可以概括为以下几个方面:一方面,公民隐私与公民个人信息确实存在重合部分。具体而言,既能够识别特定自然人,而且涉及个人私生活或人格尊严的信息就属于公民隐私与公民个人信息的重合部分,主要包括敏感个人信息(如生物识别信息、金融账户信息等)和生活私密信息(如私人通信内容、社交活动信息等)。应该看到,《民法典》第1034条规定“个人信息中的私密信息,适用有关隐私权的规定”,这实际上也佐证了私密信息正是公民隐私与公民个人信息的重合部分。另一方面,公民隐私与公民个人信息也确实存在不相重合的内容。例如,仅具有可识别性,但不具有私密性的公开性公民个人信息一般不能被认定为个人隐私。同时,仅具有私密性,但不具有可识别性的个人隐私也不能被认定为公民个人信息。由此可见,公民隐私的本质特征是私密性,而公民个人信息的本质特征是可识别性。因为公民隐私与公民个人信息在本质上是一种交叉关系,所以现行《刑法》将部分公民隐私依附于公民个人信息并予以间接保护的方式无可厚非。但是,刑事立法和刑事司法活动应当随着科技进步而不断进行反思与修正。在人工智能时代,为了完整保护无法被公民个人信息所包含的其他公民隐私,立法者还有必要增设专门保护公民隐私权的相关罪名,进而形成公民隐私权刑法直接保护与间接保护并行制度。需要指出的是,由于公民个人信息无法完全包含公民隐私(二者是交叉关系),因此,意图对公民个人信息进行扩张解释进而通过侵犯公民个人信息罪的相关规定全面规制隐私权犯罪的观点,似乎没有现实依据。换言之,在公民隐私权刑法直接保护与间接保护并行制度中,侵犯公民个人信息罪等现有规定的涵摄范围应该无须进一步扩张,也即相关规定完全可以继续承担对公民隐私权的间接保护职能。同时,立法者应当增设侵犯公民隐私权罪等相关规定用以专门规制严重侵犯他人隐私权的犯罪行为,进而承担起对公民隐私权的直接保护职能。

目前,大语言模型等新型人工智能技术已经对公民隐私构成了前所未有的威胁。为了使公民隐私权能够明确成为受到刑法独立保护的法益,我们亟须在《刑法》中增设侵犯公民隐私权罪。具体而言,笔者建议在《刑法》分则第四章“侵犯公民人身权利、民主权利罪”中增设侵犯公民隐私权罪,从而凸显刑法对公民人格权的体系性保护。因为公民隐私与公民个人信息的关系较为密切,所以我们可以考虑将侵犯公民隐私权罪增设在侵犯公民个人信息罪之后。具体而言,我们可以通过增设《刑法》第253条之二规定侵犯公民隐私权罪。此外,增设侵犯公民隐私权罪的根本目的是将所有严重侵犯非个人信息型隐私的行为纳入刑法规制范围,进而弥补侵犯公民个人信息罪对公民隐私权保护的局限性。我们可以将侵犯公民隐私权罪的罪状与法定刑设置为:“违反国家有关规定,非法收集、窥探、利用、泄露、公开、传播他人私密空间、私密活动、私密信息,情节严重的,处三年以下有期徒刑、拘役或者管制,并处或者单处罚金;情节特别严重的,处三年以上七年以下有期徒刑,并处罚金。单位犯前款罪的,对单位判处罚金,并对其直接负责的主管人员和其他直接责任人员,依照前款规定处罚。”

(二)明确平台责任与技术提供者的归责边界

在平台主导型的数据处理模式中,大量侵犯公民隐私行为并非由个体驱动,而是在平台长期放任、制度缺失或监督不力等因素综合作用下逐渐积重难返。对于平台主导型的侵犯公民隐私行为而言,其规制难点在于平台本身是否应当承担刑事责任。有学者认为,技术是中立的,技术提供者原则上不对该技术造成的危害承担责任。目前美欧等国家均未要求网络技术提供者承担一般性的主动审查义务,而是要求其履行合理的注意义务并根据过错承担有限责任。笔者认为,技术本身确实具有中立性,但是技术使用行为则并非绝对中立。在人工智能时代,简单通过技术中立来规避平台刑事责任的法理依据似乎还是存在缺陷的。如果平台在算法设计、数据爬取或行为诱导中具有明显的价值取向或利用目的,那么相关技术使用行为就不再具备“中立性”。例如,如果平台利用生成式人工智能推荐算法引导用户提供隐私信息,或者通过大模型预训练技术自动收集并反复利用用户敏感信息,那么平台就不能以技术中立性为由而逃避刑事责任的承担。依笔者之见,我们可以综合以下因素来判断平台是否应当承担刑事责任:其一,平台是否掌握数据处理流程的实质控制权?其二,平台是否因疏于管理而导致公民隐私数据被非法收集或滥用?其三,平台是否具有避免侵犯公民隐私权犯罪结果发生的技术能力?其四,平台是否具有放任、默许存在侵权风险程序运行的行为?如果平台同时具有上述四种情形的,那么就应当通过单位犯罪原理依法追究相关平台的刑事责任。除此之外,相较于强调个体注意义务的过失责任,平台似乎更侧重于系统性失控的管理过失责任,并以此为依据追究平台的刑事责任。具体而言,管理过失责任要求平台运营方在数据处理、算法应用、安全防护等方面建立完整的合规管理体系。如果平台或人工智能大模型因管理缺位而导致用户隐私泄露,那么平台方应当承担管理过失责任。人工智能平台的运行往往涉及算法设计者、平台运营者、数据提供者与终端使用者等多个主体。笔者认为,管理过失责任的归责逻辑能够适用于主体较为分散且技术链条较为复杂的人工智能平台。在此背景下,我们可以将整个人工智能平台或人工智能系统视为归责对象,同时将相关平台或系统内部的结构性风险与制度性缺陷也纳入刑法评价范围。通过明确平台责任与技术提供者的归责边界,刑法可以突破“直接加害人”的思维束缚,进而实现对复杂人工智能平台因结构性失控而导致公民隐私权被侵害情形的有效规制。对于在隐私数据处理环节中长期存在系统性隐私泄露问题的弱人工智能平台,刑法可以直接追究相关平台或弱人工智能大模型算法设计者以及运营者的管理过失责任。

综上所述,笔者认为,人工智能已成为第四次工业革命的标志性产物,并成为21世纪最具变革性的技术之一。在人工智能时代,人工智能的迭代发展必然会引发法学理论的结构重置,无论人们是否看到或接受这一客观存在的现实,人工智能与法学的交汇带来了关于智能本质、意识、意志以及人们行为所依据的法理框架等关键问题。时下,人工智能迭代发展的法律意义似乎已经不仅仅停留在理论层面,它还具有对整个社会产生实际影响的现实意义。从而必将引发现行《刑法》规定的适用性和合理性、行为主体刑事责任的承担以及人工智能技术开发者和使用者所应承担的刑事责任分配等问题的讨论。据此,在人工智能技术高速迭代发展的当下,深层次长时间地开展人工智能与法学之间的对话似乎十分必要。在人工智能技术深度嵌入人们日常生活、各人工智能平台逐渐掌握数据处理核心环节的时代背景下,现行《刑法》直接、独立保护公民隐私权的立法空白亟须填补。为了有效应对人工智能技术对公民隐私权所造成的系统性风险,我们既要通过增设侵犯公民隐私权罪来构建公民隐私权刑法直接保护与间接保护并行制度,也要进一步厘清平台与技术责任主体的刑事责任边界。只有这样才能实现人工智能时代隐私权刑法保护的实质正义与制度更新,为公民的隐私安全与人格尊严筑起一道坚实的刑法保护屏障。

    进入专题: 人工智能   公民隐私权  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/167454.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统