【摘要】人工智能对个人信息保护制度提出了一系列挑战。究其根源,个人信息保护制度起源于档案化个人信息时代,其针对的典型场景是行政机构低频处理少量档案类个人信息。在以互联网与信息技术为代表的前人工智能时代,个人信息处理的典型场景就已经转换为企业高频处理大规模行为类个人信息。在人工智能背景下,个人信息处理的典型场景进一步演化为海量个人信息的融合汇聚型处理,其对数据的处理类似水库对海量水滴的汇聚与融合利用。人工智能背景下的个人信息保护原理与制度应当与人工智能处理的典型场景对齐,其原则应从静态预防迈向动态发展思维,从激化对抗迈向信任互惠,从个体主义迈向群体主义。在此基础上,其具体制度模块也应进行相应调整与重构。人工智能处理个人信息应成为个人信息保护制度改革的试验田,个人信息保护的一般原理与制度也应借机进行改革与完善。
【关键字】人工智能;个人信息保护;发展与安全;个体控制;汇聚融合
一、问题的提出
近年来,人工智能尤其是生成式人工智能发展迅速,并且带来了一系列法律挑战。在这些挑战中,个人信息保护尤其具有现实性和紧迫性。例如2025年初,意大利数据保护局以DeepSeek的个人数据收集与处理违反欧盟《一般数据保护条例》为由对我国的DeepSeek进行封禁。2025年6月底,德国数据保护官员以DeepSeek违反欧盟个人数据跨境流动制度为由,要求苹果和谷歌的应用商店下架DeepSeek。人工智能所带来的个人信息保护挑战不只是实践中的少量议题。从制度上看,这些挑战涉及了个人信息保护制度中的几乎每个议题。
以《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)的规定为例,涉及的议题就包括以下方面。
首先,人工智能背景下的个人信息处理对基础问题或《个人信息保护法》的总则部分提出了挑战。就个人信息保护的必要性与权益平衡而言,人工智能处理个人信息是否应当被特殊对待?目前,已有若干法律规范将人工智能利用个人信息研发与训练排除在其适用范围之外。就个人信息概念与范围而言,生成式人工智能所收集的用户输入信息是否属于个人信息?这些信息一般不包括个人的姓名、联系方式等可以直接识别个人的信息。就个人信息处理原则而言,合法、正当、必要、诚信、公开透明、信息质量与准确性、责任与安全保障这些原则应当如何理解与适用?人工智能训练与应用常常需要海量个人信息,且很难在事先就满足特定目的、数据最小化等要求。并且人工智能重在实现输出与预测的概率准确性,因而很难完全保障个人信息的质量与准确性。
其次,人工智能背景下的个人信息处理对《个人信息保护法》中的个人信息处理规则提出了挑战。就个人信息处理的合法性基础而言,很多个人信息的收集处理都无法得到个人授权,此时发展人工智能是否可以作为个人信息处理的合法性基础或“正当利益”?就告知同意而言,人工智能处理的个人信息往往包含大量网络公开信息,且很多个人信息常常没有获得个体的知情与同意。就自动化决策而言,人工智能具有典型的自动化决策特征,当其处理的数据包括个人信息时,是否需要完全遵守个人信息制度中有关自动化决策的规定?就公开个人信息、敏感个人信息、国家机关处理个人信息而言,人工智能背景下的这些制度如何适用,目前并无明确定论。就个人信息跨境制度而言,人工智能尤其是生成式人工智能天然具有跨国界性,面对全球人工智能与数据领域的竞争、合作与博弈,个人信息跨境制度也面临争议。
再次,人工智能也对个人信息处理中的权利与义务带来了一系列挑战。就个人信息权利而言,人工智能处理背景下的个人信息的混同性、变化性、不可预测性更强,这将导致个体更难行使知情决定权、查阅复制权(访问权)、更正补充权、删除权、算法相关权利、死者个人信息权利等权利。就处理者义务而言,人工智能处理的个人信息的混同性、变化性、不可预测性也会对处理者义务带来影响。个人信息安全保障措施与隐私设计、专人保护制度、合规审计与影响评估制度、信息泄露及其保护制度、大型平台义务都可能需要进行调整或制度升级。
最后,人工智能背景下的个人信息保护实施与法律责任也面临挑战。例如就监管机构而言,人工智能背景下的个人信息处理常常面临个人信息保护机构与其他监管机构的双重监管,如何协调不同机构的监管机制,设计合理的监管原则就成为需要思考的问题。就司法救济和公益诉讼而言,人工智能对个人信息的侵害往往具有大规模微型侵权、混同性侵害等特征,传统侵权法往往难以对此类侵害进行有效救济。此外,面对人工智能发展的需要,司法救济和公益诉讼如何既能合理维护个人信息权益,又不至于阻碍人工智能的发展,也是亟需破解的难题。
笔者对人工智能背景下的个人信息保护制度进行全面分析,并指出上述挑战之所以出现,是前人工智能时代个人信息保护问题与人工智能时代个人信息保护问题的叠加。个人信息保护制度起源于档案类个人信息时代,其制度以行政机构低频处理少量档案类个人信息为典型场景。在以互联网与信息科技为代表的前人工智能时代,个人信息处理的典型场景已经转换为企业高频处理大规模行为类个人信息。在人工智能时代,个人信息处理的典型场景进一步转换,人工智能处理个人信息的典型场景演化为海量个人信息的融合汇聚型处理,人工智能处理个人信息类似水库对海量水滴的汇聚与融合利用。为了完成制度与场景的对齐与匹配,人工智能时代个人信息保护的原理与制度都应当进行重塑。同时本文指出,人工智能的个人信息保护问题也为改革与完善个人信息保护制度提供了契机。由于人工智能处理个人信息进一步凸显了当代个人信息处理的特征,且人工智能发展又具有更为广泛的社会共识,人工智能背景下的个人信息保护制度可以成为更一般性的个人信息保护制度的试验田和改革参考模板。
在展开问题分析前,需要说明本文对个人信息保护具体制度的分类与关注重点。就较为宏观的分类而言,笔者以《个人信息保护法》为基础,将个人信息保护制度在宏观上分为基础原理(该法第一章)、个人信息处理规则(该法第二章)、个人信息权利与处理者义务(该法第四章、第五章)、履行个人信息保护职责的部门和法律责任(该法第六章、第七章)。就更微观或更小颗粒度的关注重点而言,本文将分析个人信息保护中最为重要的若干制度模块,例如个人信息概念与范围、个人信息处理原则、个人信息处理的合法性基础、告知同意、共同委托处理关系、自动化决策、公开个人信息、敏感个人信息、国家机关处理个人信息、个人知情决定权、查阅复制权、更正补充权、删除权、算法相关权利、安全保障措施与隐私设计、专人保护制度、合规审计与影响评估制度、信息泄露及其保护制度、大型平台义务、监管机构协调与监管原则、司法救济和公益诉讼等。个人信息保护场景多元、制度复杂,通过此类宏观分类与微观聚焦,笔者努力兼顾个人信息保护的整体性与具体性。
二、个人信息保护制度新老问题的进一步分析
本文第一部分初步指出了人工智能背景下的个人信息保护挑战,这一部分在此基础上对其进行展开分析。相关分析表明,个人信息保护制度在前人工智能时代就已经存在很多挑战或老问题,人工智能的发展与应用则进一步强化了这些老问题,同时带来了新问题。
(一)基础问题
首先,个人信息保护制度是否应当适用于人工智能,这一问题的背后其实是科技发展与保护个人信息的平衡问题,这一问题在前人工智能时代就已经存在。例如,《个人信息保护法》第1条将“保护个人信息权益,规范个人信息处理活动,促进个人信息合理利用”作为该法的立法宗旨。这一平衡问题如何实现,在传统个人信息保护制度上就面临挑战。整体而言,“保护个人信息权益,规范个人信息处理活动”的立法宗旨在制度中较易落实,“促进个人信息合理利用”的立法宗旨则往往很难操作。人工智能的发展已经成为我国政府与社会的重要共识,在人工智能背景下,这一问题更为突出,因为人工智能的发展往往依赖海量包含个人信息的数据。
其次,个人信息的概念与范围界定难题在前人工智能时代已存在。很多研究指出,个人信息概念与范围界定高度依赖“识别性”,但“识别性”取决于谁来识别、何种概率的识别、识别后的用途、识别后的风险等多种功能因素。在互联网与信息时代,绝大多数信息都属于不能直接识别但可以结合其他信息进行识别的信息,例如各类不包括姓名的消费者行为信息。在人工智能训练背景下,此类问题进一步凸显。例如,很多网络爬虫所获取的信息以及网络用户对话输入的信息也都属于此类信息。同时在输出端,很多信息都属于推论信息(inference information),即人工智能根据各类信息“猜”出来的有关个人的信息。这类信息有可能可以识别个人,但也可能是错误信息或误导性信息,无法与其他信息结合识别个人。因此可以说,人工智能进一步强化了本来就存在的个人信息界定困难。
最后,个人信息处理原则的挑战在前人工智能时代已经存在。例如互联网和大数据所收集的个人信息往往并不是为了当下的单次服务,而是为了通过数据分析而为未来的用户和商业活动提供一系列服务。因此,互联网与大数据分析往往会突破《个人信息保护法》第6条规定的“明确、合理的目的,并应当与处理目的直接相关”的“目的限制”原则,以及“收集个人信息,应当限于实现处理目的的最小范围,不得过度收集个人信息”的“数据最小化”原则。同样,互联网与大数据要保证个人信息处理的公开透明、信息质量与准确性原则也非常困难,因为互联网与大数据追求的是整体数据的概率性的质量与准确性,并非某一条个人信息的质量与准确性。人工智能大大强化了之前就存在的问题。人工智能所需要的数据体量往往呈现指数级增长,其算法与数据利用中的黑箱性问题更为显著,其输出结果和未来被利用的场景更加不确定。
(二)处理规则
就处理个人信息的合法性基础而言,前人工智能时代也存在争议。要求信息处理者在处理之前获得个人同意或其他合法性基础,这等于对个人信息处理进行“有罪推定”。但实际上,个人信息处理既可能带来侵害风险,也可能给用户和消费者带来福利。尤其是一些不会侵犯传统隐私权的个人信息处理,此类个人信息处理中的收益可能远超风险。也正是因为个人信息处理的双面性,欧盟等国家和地区引入了像《一般数据保护条例》第6条第1款第f项那样的“正当利益”条款,为个人信息处理提供更为一般性的合法性基础。例如社交网络中基于通讯录权限的好友推荐,这类商业模式常常很难建立在个人同意、合同必要等合法性基础之上,但可以通过“正当利益”条款而获得辩护。在人工智能的背景下,上述问题更为突出。目前,我国的人工智能发展处在中美竞争的关键阶段,而《个人信息保护法》诞生于我国互联网监管最为严格的阶段,其合法性基础条款甚至没有列入“正当利益”条款。人工智能是一种通用性科技和新质生产力的代表,如果完全以预防性的观点看待个人信息处理,则人工智能的发展将会面临重大限制。
就告知同意制度而言,前人工智能时代的告知同意问题已经被广泛讨论。很多学者指出,个人既无时间兴趣阅读隐私政策,也无专业能力理解其中包含的个人信息处理规则。强化告知同意要求也无法解决这一问题。要求信息处理者进行更多的告知,以及要求信息处理者采取选择加入(opt-in)等要求,只会让用户体验更差。在人工智能背景下,告知同意制度的问题会进一步放大。正如前文所述,人工智能存在数据汇聚融合、算法黑箱、训练结果不确定性等问题。面对这些问题,人工智能企业及其专家都很难预测与理解人工智能处理个人信息的具体情况。试图通过告知同意制度让用户进行信息自我决定(information self-determination),其效果会更加流于形式。
就自动化决策而言,前人工智能时代就存在自动化决策是否更为危险的问题。以欧盟《一般数据保护条例》为代表的立法赋予个体以拒绝纯粹自动化决策以及用户画像的权利,将自动化决策视为比非自动化决策更危险的活动。但这一前提假设存在疑问。自动化决策固然会带来歧视、不公平交易等风险,但这类风险未必比非自动化决策更大。在非自动化决策中,各类歧视、不公平交易的侵害风险同样显著,在概率上也不会比自动化决策更低。因此,法律是否应当对自动化决策本身进行额外规制,包括赋予个人以拒绝纯粹自动化决策的权利,在法理基础上存在疑问。在人工智能处理个人信息的语境下,上述问题更为突出。因为人工智能本身就可以被视为一个高度自动化的决策系统。人工智能处理个人信息当然应当受到法律的规范,但将自动化决策本身视为更为危险的活动与规制对象,不仅会妨碍人工智能的正常发展与应用,而且会丧失对真实风险的关注与规制。例如非自动化决策可能存在严重不公或效率低下,人工智能自动化决策本来可以解决这类问题。但由于对自动化决策的规制与个人拒绝纯粹自动化决策的权利,自动化决策可能无法统一部署与实施,从而造成更为严重的不公或效率低下。
在前人工智能时代,公开个人信息保护、敏感个人信息保护与国家机关处理个人信息也存在争议与挑战。公开个人信息的争议在于是否应当对其进行一体保护或完全豁免保护。从制度设计看,以欧盟法为代表的完全一体保护模式存在较大弊端,因为公开个人信息很难获得个人同意,对其进行处理的风险也与非公开个人信息完全不同;但以美国法为代表的排除公开个人信息保护模式也存在问题。在人工智能背景下,公开个人信息的合理使用问题将成为核心问题之一。因为人工智能训练严重依赖从互联网公开途径获取的包含了个人信息的公开数据,且很多生成式人工智能又会输出此类数据。人工智能的这些特征既强化了公开个人信息处理的必要性,又对公开个人信息的保护提出了更高要求。敏感个人信息的传统核心挑战在于敏感个人信息与非敏感个人信息的二元划分很难成立,个人信息的敏感性常常取决于不同场景化因素,且二者经常可以轻松转换。人工智能带来的新问题在于个人信息敏感性的界定更不确定。人工智能通过对各类个人信息或非个人信息的处理,常常可以推论出各类信息,实现敏感与非敏感个人信息的转换。国家机关处理个人信息的传统问题则在于其既具有更强的正当性与必要性,又可能对个人与社会造成更大的影响,且常常得不到合理监督。在人工智能背景下,国家机关处理个人信息更可能与行政决策相结合,对个人与社会造成影响。
个人信息的跨境流动问题在前人工智能时代也已经存在。其核心争议是我国应当采取何种个人信息跨境流通模式?如何看待欧盟模式、美国模式与我国在基础理论方面的区别?从基础原理看,欧盟模式以人权作为个人信息跨境的基础,但暗含了欧盟优越主义的立场,美国模式以数据自由贸易为基本原则,但同时包含了霸权主义。全球数据秩序建构伊始,传统个人信息跨境流动制度就存在制度丛林问题,即各国对个人信息跨境流动采取完全不同的法律原理与制度。并且,我国在一段时间内也并未寻找到完全符合我国国情与基本立场的数据跨境制度。在人工智能发展特别是我国人工智能企业出海发展的背景下,上述问题将继续存在并将进一步激化。目前,若干采纳以欧盟为代表的数据跨境模式的国家和地区正对我国的很多人工智能企业发起个人信息跨境调查,美国则通过各种立法与行政命令将我国纳入敌对国家范畴,限制某些类型的个人信息传输到我国。
(三)个人信息权利与处理者义务
在前人工智能时代,个人信息权利就面临难以行使或实施的现实困境。除了上文在告知同意制度中已经提及的个人信息知情决定权,其他个人信息权利的行使也面临困境。首先,查询复制权、转移权、更正补充权、删除权、解释说明权等个人信息权利常常难以行使。很多和个人相关的信息介于完全可识别与不可识别之间,且此类个人信息常常以非结构化的形式存在或存储,例如聊天记录、图片、视频中常常包含了多人信息。对于个人信息特征并不明显或以非结构化形式存在的信息,当个人对这类信息主张权利时,则可能带来很多负面影响。例如当某人对其聊天记录或合影图片进行查询复制、转移,此类权利行使就可能侵害他人的隐私权。当个人对其聊天记录或合影图片中的个人信息进行更正、补充和删除时,此类权利行使也很可能侵犯他人权益。除此之外,每种具体个人信息权利还会面临各自独特的问题。例如对于转移权而言,转移权的行使也可能面临技术不可行、造成反竞争效应等问题。对于更正补充权而言,很多个人信息都是模糊性、概率性的,这类个人信息就很难进行更正补充。
人工智能的发展与应用使得个人信息权利行使面临更大挑战。从人工智能所处理个人信息的来源看,大量个人信息来自网络公开数据或数据公司提供的数据,只有少量大型互联网企业可能拥有可供训练的自有数据。因此,人工智能所处理的个人信息具有明显的混同性、非结构化特征,传统个人信息权利所面临的挑战在人工智能处理的背景下将会更加明显。此外,由于人工智能所处理的数据大部分并非自有数据,个人信息主体与人工智能之间往往缺乏交互界面,这使得个人将更难行使各类信息权利。相较之下,在具有交互界面的场景中,信息处理者与个人之间本来就有各类验证和沟通渠道,个人信息主体所提出的各类信息权利请求将更容易行使。
信息处理者义务在前人工智能时代也面临问题。信息处理者义务最为核心的问题是强制性监管与自我监管常常存在紧张关系。一部分观点认为,信息处理者义务有利于强化对个人信息权益保护,应当成为个人信息处理者的强制性义务。但也有观点指出,即使法律没有规定个人信息处理者义务,企业也会对个人信息设置安全保障措施、防止个人信息泄露,并且会在产品、服务与商业模式中考虑保护用户的隐私权益。因为个人信息一旦泄漏或违规使用、侵害用户或消费者权益,那么受到最直接影响的将是企业。强制性地要求信息处理者设置个人信息安全保障措施、专人保护制度、合规审计与影响评估制度、信息泄露及其保护制度,以及在法律上设置大型平台特殊保护义务,可能导致监管中的形式主义、官僚主义,不但给企业增添不必要的成本,而且可能导致无法聚焦真正的个人信息处理风险。信息处理者可能为了满足合规要求,将精力都放在应对各类检查上面,而对真正的个人信息处理风险关注不足。
人工智能所带来的新问题在于,其不但要承担个人信息保护法中的信息处理者义务,而且要承担算法合规、人工智能合规等高度相关的义务。以欧盟新制定的《人工智能法》为例,该法对人工智能风险进行分级,将其划分为禁止性风险、高风险以及有限风险和最小风险。其中禁止性风险主要包括影响个人潜意识、危害弱势群体、社会信用评估,以及在公共场所使用“实时”远程生物识别系统进行执法的人工智能系统。对这些禁止性风险进行分析,可以发现它们都与个人信息处理高度相关。我国也制定了《生成式人工智能服务管理暂行办法》《互联网信息服务算法推荐管理规定》等部门规章,对特定主体施加相应责任。在多重监管背景下,人工智能的个人信息处理者责任可能面临进一步的监管形式主义、官僚主义问题。
(四)监管与法律责任
在前人工智能时代,监管部门设置与履职的核心问题是个人信息保护是应当进行统一监管还是应当按不同行业部门进行分领域监管。对此各国采取了不同模式,例如欧盟采取了统一监管的模式,美国采取了分领域监管,我国则采取了兼顾二者的监管模式。统一监管与分领域监管各有其优劣。其中统一监管的优势在于可以对个人信息保护工作进行整体性协调、维持相对统一的执法标准。但其问题也非常明显,不同领域与行业的个人信息保护非常不同,即使制定统一的个人信息保护法,也常常需要借助不同部门对个人信息进行监管。
一方面,人工智能处理个人信息延续了传统问题。例如新闻领域、商业领域、劳动就业领域、自动驾驶领域的人工智能处理个人信息都非常不同,需要法律协调统一保护与分领域保护。另一方面,人工智能作为一种通用科技与颠覆性科技,机遇与风险也使得统一监管与分领域监管之间的紧张关系更为突出。这一点在我国的监管模式下尤其明显。目前,我国的网信、科技等部门均对人工智能监管提出了方案,而不同部门的监管导向非常不同。例如,网信部门侧重于对内容和个人信息安全进行监管,科技部则侧重于人工智能的发展。在处理个人信息保护问题上,需要根据人工智能的特点协调不同监管部门,设计合理的监管原则。
在前人工智能时代,个人信息保护中救济与实施的核心问题是如何有效地进行个人信息侵权救济、公益诉讼和行政监管。就侵权救济而言,侵害个人信息往往具有大规模微型侵权的特征,面对此类侵权,个体所遭受的损害往往较为微小或不确定,但其人数可能是海量规模的。因此,各国的个人信息侵权之诉常常面对很大挑战。例如,美国在一系列案件中将大部分违规处理个人信息排除在侵权诉讼之外,认定这类情形不存在侵权法上的具体损害(concrete harm),仅将个人信息泄露等少量情形纳入侵权法保护。公益诉讼和行政处罚很大程度可以解决个人信息大规模侵权的问题。但个人信息合法合规与违法违规处理的边界常常并不清晰,很多个人信息处理行为可能未能完全符合个人信息保护法的具体条文与制度,但未必对个人或社会造成侵害。公益诉讼与行政处罚如何看待此类形式违规、实质并不存在侵害的问题,是个人信息公益诉讼和行政处罚的一大难题。
在人工智能背景下,个人信息大规模微型侵权问题仍将存在,并且带来新问题。例如在人工智能训练阶段,人工智能可能大量使用未获得个人授权的个人信息,甚至可能利用非公开的个人信息。但同时,此类个人信息处理又仅限于训练目的,不会对个体产生实质性影响。在此背景下,此类个人信息处理既可能被认定为违规处理个人信息,也可能被认定为科学研究领域的责任“克减”或“合理使用”。此外,生成式人工智能所输出的很多个人信息可能都存在错误甚至涉嫌诽谤,但人们也早就熟知了生成式人工智能的“一本正经胡说八道”特征,且生成式人工智能一般会在其用户协议中对其责任进行豁免。在此背景下,个人信息侵权中的损害将更难确定。至于公益诉讼和行政处罚,人工智能处理个人信息的上述特征也会带来挑战。由于人工智能的创新性与颠覆性特征,公益诉讼与行政处罚需要合理回应很多形式违规但实质不存在危害的个人信息处理。
三、人工智能背景下的个人信息保护原理重构
人工智能背景下个人信息保护之所以面临挑战,与个人信息保护制度的最初设计有关。早期的个人信息保护制度主要针对重点领域的少量个人信息进行保护,但个人信息处理早已经从此类个人信息处理转向大规模个人信息处理,而人工智能处理个人信息极大强化了这一转变。人工智能的本质可以视为海量包含个人信息的数据汇聚与处理,与早期个人信息保护制度所针对的档案类个人信息保护有着本质性不同。在人工智能背景下,个人信息保护制度的基础原理应当进行转型升级,以此应对个人信息处理的场景变迁。
(一)原理反思
从历史看,个人信息保护制度诞生于行政机构处理档案类个人信息。20世纪50年代、60年代,西方国家的政府规制机构大量收集个人信息,而此类个人信息收集与利用常常很难通过个体侵权诉讼来加以约束,这引发了社会与立法机构的担心。在此背景下,美国的威斯丁等学者提出了隐私就是个人信息自我控制(control)的理念,德国法院提出了个人信息自我决定(information self-determination)的理念。在制度层面,公平信息实践原则(fair information practices)被提出,这一原则要求个人信息处理应当保证公民的知情权、访问权、更正权等权利,要求信息处理者遵守收集限制、使用限制、安全保障等规则。
在当时的背景下,公平信息实践制度可以有效合理地应对档案类个人信息处理。首先,彼时政府规制机构所收集与处理的档案类个人信息都是一条一条的,如个人财务信息、税收信息。对于档案类个人信息,个体在行使其权利时不会直接对其他主体产生影响。其次,彼时政府规制机构收集个人信息都是重要类型的个人信息,且其数量与频次都非常有限。这使得个人往往具有较强的意愿对个人信息处理进行自我管理。最后,政府规制机构收集与处理的个人信息往往与其目的一一对应,其收集的范围与利用方式也可以事先确定,这使得个人信息处理须遵循正当、必要等原则。
但在信息处理方式发生变化的背景下,上述公平信息实践制度或个人信息保护制度面临很大挑战。就个人信息所存储与利用的状态而言,个人信息的融合汇聚使得个人信息很难区分为一条一条的个人信息,当个人针对其个人信息行使相关权利时,就常常会对他人产生影响。就个人信息被收集的类型与频次而言,数字时代的个人信息已经包含了大量与个人相关的重要和不重要信息,且被收集的频次已经指数级增长,这都使得每个人很难有意愿和能力进行信息自我管理。就个人信息被收集的范围与利用方式而言,市场化背景下的个人信息处理也很难事先确定,这使得以事前预防为基础的个人信息保护很难适应市场化机制。在市场化机制下,企业可能会通过个人信息的二次挖掘与处理为消费者提供更多的产品与服务。
在人工智能背景下,这些问题被进一步放大甚至激化。因为人工智能的本质就是通过算法对海量数据进行训练与利用,而此类数据又必然包含大量个人信息。如果进行类比的话,早期个人信息处理类似于银行存款。每个人的存款都可以被区分,都具有重要性且可以在事先确定风险防范规则。人工智能个人信息处理则类似于水库对每个人所贡献的水滴进行处理。在此类处理中,每个人所贡献的水滴都会被融合,但每个人都会被收集大量权益并不显著的水滴,且水滴汇聚为水库会同时带来显著收益与某些风险。对于类似水库汇聚水滴的人工智能个人信息处理,传统的公平信息实践或传统个人信息保护制度存在众多不适应之处。特别是如果强化这一制度中的纯粹预防、个体保护、个体控制等理念,则个人信息保护制度将与人工智能处理个人信息产生更大冲突。
(二)原理重构
为了回应本文所提到的挑战,人工智能背景下的个人信息保护应当着重于以下方面。
首先,从静态预防型保护转向动态发展型保护。从哲学的世界观来看,法律当然应当采取动态发展思维,以可以合理达到的发展状态作为个人信息保护的基准,而非采取静态预防思维和以现有状态为基准。世界是不断发展变化的,而非静止不变的,故应以动态发展型的思维给个人信息保护设置基准。同时,在人工智能成为新质生产力代表和全球博弈关键技术的背景下,动态发展型思维也更有利于人工智能发展,为我国的科技发展与全球竞争提供新动能。
从动态发展型的个人信息保护理念出发,个人信息保护应当将个人信息利用可能带来的发展收益与机遇作为计算成本收益,适用比例原则。目前,业界与学界对于个人信息保护的讨论都会提到发展与保护的平衡,《个人信息保护法》也提到“保护个人信息权益,规范个人信息处理活动”与“促进个人信息合理利用”之间的平衡。但这类平衡的关键在于,其基准到底是以现有状态为基础,还是以本来可以合理达到的发展状态为基准?在本文看来,一些讨论都将现状作为成本收益分析与比例原则适用的基准,这类思考使个人信息保护陷入了静态预防型保护的陷阱。
在思维习惯上,静态预防思维的形成有多重因素。从政治环境与公众舆论看,近十年来全球很多国家和地区对互联网等信息科技企业的态度开始从乐观主义转向批判主义。其中尤其突出的是欧盟,欧盟在丧失了互联网等信息科技企业的产业竞争优势后,开始另寻出路,试图在规则制定领域树立布鲁塞尔效应(Brussel Effect),重塑全球领导权。从法律制度与法律文化看,欧盟等区域将个人信息被保护权上升到宪法基本权利的层面。事实上,个人信息被保护权被上升为宪法基本权利,并不影响法律对个人信息保护采取动态发展的思维。个人信息被保护权并不意味着阻碍个人信息的合理利用,无论是我国还是欧盟,都将“个人信息合理利用”或“个人数据自由流动”作为其立法目标。就人工智能而言,其发展以及为用户提供更好服务更依赖于数据的合理汇聚利用。以DeepSeek为例,其大语言模型包含670亿参数,利用了包含2万亿token的数据集进行训练,这些数据集中包含了大量混杂其中的个人信息。如果以静态预防而非动态发展的视角看待人工智能训练数据,则人工智能发展与用户福利都将受到严重限制。
其次,人工智能处理个人信息的保护原理应当从激化信息处理者与个人之间的冲突对抗迈向鼓励双方互惠合作。对于互惠型关系,传统法律制度可以通过合同法或市场社会自治型法律加以应对;对于冲突型关系,传统法律制度则可以通过侵权法或强制型法律加以应对。但人工智能处理个人信息同时存在侵害冲突与互惠合作关系,且这种侵害冲突与互惠合作关系往往密切交织,难以简单区分。为回应上述问题,法律应促进人工智能处理者与个人之间迈向互惠合作,避免激化矛盾与走向冲突对抗。法律应当允许人工智能处理者对个人信息进行合理收集,尤其应当允许人工智能处理者对公开个人信息的合理收集,同时对个人信息利用进行合理规范。如果在收集端就对网络公开个人信息等类型的数据进行过多限制,则大量数据将无法得到有效汇聚和利用。在缺乏数据的情形下,人工智能的发展不仅会受到严重限制,而且可能会因为数据缺乏而产生偏见、歧视等问题。从规制理念来看,这也意味着法律应当从侧重事前规制转向侧重事中事后规制,从强制型规制转向市场社会自治型规制。此种制度设计将使人工智能处理个人信息接近版权保护中的合理使用制度。与版权保护中的合理使用类似,允许人工智能对个人信息进行合理收集与利用,同时要求人工智能对个人信息训练与安全承担相应责任,可以有效实现人工智能处理者与个人和社会之间的互惠。
在原理层面,促进人工智能处理者与个人互惠合作还应当对传统制度进行升级。在人工智能处理者和信息主体具有合同或准合同关系的场景下,法律应当采取基于信义义务(fiduciary duty)的法律保护原理。信义义务制度要求人工智能处理者承担更多的保密义务(duty of confidentiality)、谨慎义务(duty of care)和忠诚义务(duty of loyalty)。与基于意思自治的合同制度相比,这一制度更能应对信息能力不平等,并兼顾具有互惠与侵害风险特征的关系。在人工智能处理者和信息主体没有合同或陌生关系的场景下,法律则可以对侵权法与规制法进行转型升级,以促进人工智能处理者与个人的互利互惠。在法律原理层面,侵权法可以更多借鉴侵扰法(nuisance law)中的相关的制度,以应对人工智能违规处理个人信息中所产生的大规模微型侵权问题。规制法则可以更多借鉴基于“规制下的自我规制”(regulated self-regulation)、韧性规制(resilient regulation)的理念,一方面为人工智能处理个人信息提供空间,另一方面对其可能造成的侵害进行规制。
最后,人工智能处理个人信息的保护原理应当从个体保护迈向群体保护。一方面,个人信息保护的对象应当注重对群体权益的保护,而非仅仅关注个体或个体集合权益。其原因在于,在人工智能汇聚融合的背景下,人工智能所产生的侵害往往是群体性或不特定性的。如果进行类比,人工智能违规处理所产生的侵害类似于水库污染或工厂排污所造成的侵害,其侵害常常不以某一特定个体或某些特定个体为对象。另一方面,个人信息相关权益的保护者也应当依赖国家、社会、市场、企业、个体等多元主体,而非仅仅依赖个体。个人信息自我管理的问题,本文和学界已有众多论述,此处不再赘述。这里需要进一步强调的是,在人工智能处理个人信息的场景中,个人信息自我管理更难实现。这里并不是要完全放弃个人在人工智能处理个人信息中的作用,而是要将个人的作用嵌入国家、社会、市场、企业、个体等多元主体合作治理的框架。在多元治理框架中,国家、社会、市场、企业可以分别借助其国家力量、社会声誉机制、市场竞争机制、企业自我规制机制而发挥作用。例如就个人信息的知情决定权、查阅复制权(访问权)、更正补充权、删除权、算法相关权利、死者个人信息权利等而言,如果仅仅依靠个人一方,就可能出现本文所说的流于形式与带来问题的双重悖论。但如果将个人权利的行使嵌入多元主体合作治理的框架,将个人的作用视为多元治理的一个环节,则个人信息权利就可以发挥其沟通治理功能。
四、人工智能背景下的个人信息保护制度重构
从前文的原理反思与重构出发,可以有效解决本文前两部分所提出与分析的问题。个人信息保护的相关制度应当与人工智能背景下的个人信息处理场景相匹配,实现制度与场景的对齐。
(一)基础问题
首先,就个人信息保护制度在人工智能问题上的适用性而言,要从人工智能的政策特殊性过渡到对个人信息保护制度的一般性反思和完善。人工智能作为我国当下新质生产力的代表和重点发展技术,在政策层面确实常常被特殊对待,这种政策层面的特殊对待也常常会导致法律规范的特殊设计。国家网信办颁布的《人脸识别技术应用安全管理办法》将人工智能排除在外,就是一个典型例子。但从制度角度看,人工智能的特殊性恰巧是其普遍性,即人们对于人工智能处理个人信息往往能够更为理性,更加能够从静态预防型保护转向动态发展型保护。就此而言,人工智能场景下的个人信息保护应当作为一般个人信息保护制度的“试验田”或“特区”。当某些个人信息保护制度在人工智能领域得到有效检验时,这些制度可以为其他领域甚至是一般领域的个人信息保护提供借鉴与参照,避免从静态预防型保护的视角看待个人信息保护。
其次,就个人信息概念与范围界定而言,需要在制度设计上超越个人信息与非个人信息的简单二分。个人信息保护制度起源于对档案类的个人信息进行保护,个人信息与非个人信息的二元划分非常明晰。但在人工智能背景下,此类二元划分很难成立。无论是用于人工智能训练的输入数据,还是人工智能训练后的输出数据,常常都属于无法直接识别个人,但又具有一定概率可以识别个人的信息。因此,个人信息的界定应当超越二元划分与全有或全无的保护。即使是可以直接识别个人的信息,个人信息保护法中的若干制度也未必适用;同样,即使是不能直接识别或识别概率很低的信息,个人信息保护法中的若干制度也可以适用于对其保护。
最后,就个人信息处理原则而言,应对其进行整体性解释与制度建构。以正当必要原则为例,个人信息处理的正当目的应当解释或建构为不违反个人与社会的合理预期,其处理的必要性应当以是否造成侵害风险为判断标准,避免以单条个人信息、单次收集、单次利用的思维方式对其进行理解。个人信息的准确性与质量原则也具有类似性,由于人工智能对个人信息的汇聚型利用,其准确性与质量原则应当从整体上进行判断。法律需要着重对人工智能的算法体系进行合理监管,而非对某一个人信息是否准确进行监管。例如当人工智能算法所输出的信息整体上公平公正时,即使少量与个人相关的信息存在不准确性,也不应简单认定人工智能处理个人信息违反了准确性与质量原则。相反,如果人工智能算法所输出的信息存在系统性歧视或不公正,则此时应认定其违反了准确性与质量原则。
(二)处理规则
就处理个人信息的合法性基础而言,也可对这一制度进行适度宽松解释。如前所述,《个人信息保护法》制定于监管最严格的时期,因此没有将“正当利益”纳入个人信息处理的合法性基础,这导致个人信息处理在合法性基础方面存在一些解释性障碍。在人工智能的背景下,相关信息处理者除了可以通过告知同意、“法律、行政法规规定的其他情形”获得合法性基础,也可以对《个人信息保护法》中第13条第2款和第5款进行扩张性解释。如果人工智能处理个人信息具有高度必要性,此类处理又不会对个人权益造成侵害,则此时可以将人工智能处理个人信息视为第2款所规定的“为订立、履行个人作为一方当事人的合同所必需”,或者视为第5款所规定的“为公共利益实施”而进行的处理。人工智能处理个人信息可以视为信息处理者与海量个体签订合同,实现海量个体的公共利益。
就告知同意制度而言,人工智能背景下的这一制度应当从个体知情同意转向多维告知制度。告知同意制度虽然流于形式,尤其难以应对人工智能背景下的个人信息处理,但其仍然可以作为人工智能信息处理者与个体、企业内部机构、社会组织、市场主体与执法者的信息披露与沟通机制。尤其是企业内部机构、社会组织、市场主体与执法者,这些主体比个体具有更强的专业能力,可以更好地对人工智能处理个人信息进行监督。人工智能信息处理者的隐私政策将更接近于产品说明书与自我承诺声明,不同主体都可以对其进行监督。此外,对于和个体有直接交互关系的人工智能,例如聊天类的生成式人工智能,要求此类人工智能处理者对个体进行告知并获取其同意,也仍然有较大的意义。这类场景中的人工智能常常需要获取大量个人信息用于交互性服务,包括大量敏感个人信息,此时个体的同意可以有效行使,且可以增强用户对于人工智能处理的信任。
就利用个人信息进行自动化决策而言,其制度应当与消费者保护法等法律的基本制度保持一致,而非对自动化决策本身进行规制。以《个人信息保护法》第24条所规定的要求为例,其第1款要求自动化决策避免差别待遇,“保证决策的透明度和结果公平、公正”;其第2款要求信息处理者对自动化的信息推送、商业营销提供拒绝权;其第3款要求赋予个体对具有重大影响的自动化决策的解释说明权与拒绝纯粹自动化决策的权利。对于这些法律规定与要求,应当认识到即使存在非自动化决策,如果利用个人信息的相关决策产生不合理的差别待遇或重大不利影响,相关主体也应当拥有相关权利。简言之,法律不应对自动化决策与非自动化决策进行过多区别对待。
对于公开个人信息保护、敏感个人信息保护与国家机关处理个人信息,相关制度也应根据人工智能的特点进行调整。就公开个人信息而言,我国的制度介于美欧之间,整体更具合理性。《个人信息保护法》允许信息处理者“在合理的范围内处理个人自行公开或者其他已经合法公开的个人信息”,同时将“个人明确拒绝”和“对个人权益有重大影响”排除在外。这一制度整体符合人工智能对于公开个人信息收集与训练的需求。就敏感个人信息而言,人工智能的数据转换与推理能力使得敏感个人信息与非敏感个人信息的转换更为容易。因此,人工智能背景下的敏感个人信息保护也应通过场景化的方式进行确定,同时超越敏感个人信息与非敏感个人信息二元保护框架。就国家机关利用人工智能处理个人信息而言,此类处理往往具有行政决策属性,此类场景中的个人信息保护应当保证个人在行政法上的相关权利。
就个人信息跨境制度而言,人工智能背景下的个人信息跨境应当超越欧盟模式与美国模式,通过多边主义与重叠共识建构相关制度。以欧盟模式为代表的个人信息跨境流动制度将个人信息被保护权视为基本权利,且将欧盟标准视为普适性标准,这就造成了个人信息基本上只能从其他国家和地区传输到欧盟,而欧盟的个人信息很难传输到其他国家和地区。美国模式则一方面强调个人信息全球自由流通,另一方面又采取霸权主义和单边主义立场,对我国等国家和地区设置不合理限制。我国历来强调对外交往与国际合作中的多边主义,欧美的这些立场与制度都与我国不符。在人工智能的背景下,上述问题会进一步突出,因为人工智能既需要更自由便捷的个人信息跨境流动与汇聚融合,又可能遭遇各国更多的关切与限制。在此背景下,我国应进一步贯彻多边主义的立场,通过双边协议与多边协议合理回应各国对个人信息跨境的安全关切,不断扩大个人信息自由便捷跨境流动的朋友圈。
(三)个人信息权利与处理者义务
人工智能背景下的个人信息权利应当弱化其个人信息控制属性,强化其沟通治理属性。作为绝对性、实体性的控制性权利,个人信息权利的行使可能会影响他人和社会利益,或者流于形式与无法有效行使。但是如果将个人信息权利视为非绝对性、程序性的制度工具,则不同的个人信息权利就可以扮演沟通治理的桥梁,促进海量个人信息主体与信息处理者之间的信任与合作。此外,个人信息权利中的知情决定权、查询复制权、转移权、更正补充权、删除权、解释说明权等不同权利具有不同的治理功能。例如知情决定权的功能侧重于实现个人信息处理的信息机制;查询复制权侧重于实现个人权益便捷性;转移权侧重于实现个人权益便捷性和促进公平竞争;删除权侧重于预防数字时代的永久记忆问题;解释说明权侧重于实现信息处理黑箱背景下的不信任问题。作为沟通治理型的权利,个人信息权利中不同权利的行使应当与这些权利的制度目标相对齐。
人工智能背景下的信息处理者义务首先应按照动态发展的原则,同时分析个人信息处理所可能带来的风险与收益。对于信息处理者义务中的某些后端责任,例如要求人工智能处理者对个人信息采取安全保护措施、防止个人信息泄露,此类责任一般不会对人工智能发展造成太大阻碍,人工智能信息处理者也应当承担此类义务。但对于某些前端和中端责任,例如类似欧盟《人工智能法》所进行风险分类分级规制,以及我国《个人信息保护法》所规定的个人信息影响评估与合规审计,人工智能信息处理者的责任应当与其发展机遇相匹配。法律在对人工智能处理者所造成的个人信息风险进行评估时,也应当同时对其可能带来的收益与发展机遇进行评估与审计。
此外,信息处理者义务还应遵循监管下自我监管的原则,力戒形式主义监管。在监管方式方面,这意味着监管机构应为信息处理者责任提供自我监管空间,减少各类穿透式监管。在责任判断方面,监管机构应按照人工智能处理所可能带来的预期风险、预期收益、可替代性方案、治理成本等要素进行整体性判断。人工智能处理个人信息带来的可能风险越大、预期收益越小、越难找到可替代性方案、治理成本越高,则人工智能处理个人信息的责任越大。反之,则人工智能处理个人信息的责任越小。
(四)监管与法律责任
就监管部门的制度设计而言,人工智能背景下的监管机制应当在统一监管与分领域监管协调的基础上,注重统筹动态发展下的个人信息处理。我国的二元监管模式具有其合理性。一方面,人工智能训练所依赖的海量数据,除了部分企业的自由数据和一些数据企业所提供的数据,大部分数据都依赖于互联网机制。从这个意义上说,由网信部门统筹协调个人信息保护与相关监督管理工作,具有其合理性。另一方面,人工智能处理个人信息有很强的场景性,不同行业个人信息处理的风险往往非常不同,不同行业对于发展与安全的要求也非常不同。但无论是统一监管还是分领域的个人信息监管,其监管都应当从动态发展出发,而非从本部门的固有习惯出发进行监管。例如网信部门传统上更注重安全与风险预防,但对于人工智能处理个人信息,也应当更加注重从动态发展的原则出发。从网信部门制定的《人脸识别技术应用安全管理办法》等规范来看,网信部门也已经敏锐认识到了人工智能处理个人信息的特殊性。未来,网信部门应进一步将人工智能处理个人信息视为检验、调整与完善个人信息制度的窗口,实现法治与改革的统一。
就侵害救济而言,人工智能处理个人信息应当从传统侵权法下的救济补偿迈向举报治理。人工智能处理个人信息可能带来大规模微型侵权,针对这类侵害,传统以损害、过错或过错推定、因果关系、补偿为基础的侵权法制度难以发挥作用。作为替代,法律应将个体提起的个人信息权利诉讼与个人信息侵权诉讼都视为举报机制。法院在接到此类诉讼后,应当根据人工智能处理者的个人信息治理状态判断其责任,例如人工智能处理者是否为惯犯、其行为情节是否严重、涉及人群有多大规模、是否采取了补救措施等。并且,法院还应按照上文提到的动态发展原则,分析人工智能处理个人信息的必要性或预期收益,综合个人信息处理的风险与机遇判断人工智能处理者责任。公益诉讼与行政处罚可以直接从公共性的角度对人工智能个人信息处理者进行监管,但也应采取同样的责任判断标准。
五、结语
人工智能背景下个人信息保护面临新的挑战,其根源在于个人信息保护诞生之初所面临的场景与现代个人信息保护的典型场景并不匹配。个人信息保护制度诞生于20世纪60年代、70年代,其主要针对行政机构对少量可以单独区分的档案类个人信息的低频处理,而互联网与信息科技时代的个人信息早已经演化为企业为主体对大量个人信息的融合性高频处理。人工智能处理个人信息大大强化了上述趋势,其个人信息处理呈现大规模融合汇聚性、黑箱性、不确定性等特征。针对这一挑战,笔者指出人工智能处理个人信息的理念应当从静态预防转向动态发展,从激化矛盾冲突走向合作互惠,从个体主义走向群体主义。与此相应,个人信息保护法中的一般原理与制度也应进行相应重构。在笔者看来,这种原理与制度重构不仅可以有效回应人工智能背景下的个人信息保护,而且可以为个人信息保护的一般制度提供参考。由于人工智能问题的战略性,从政府到社会到个人,不同主体都能认识到人工智能发展的必要、数据融合汇聚的必要,也对个人信息保护形成了更为理性的思考与反思。在人工智能问题之外的个人信息保护问题上,这些思考与反思也应成为个人信息保护制度改革与完善的一部分。
【作者简介】
丁晓东,中国人民大学法学院教授、博士生导师。