张平:透明度原则在人工智能治理中的适用

选择字号:   本文共阅读 683 次 更新时间:2025-04-17 00:30

进入专题: 人工智能治理  

张平  

内容提要:透明度原则是人工智能治理的重要组成部分。与信息披露制度或WTO法律框架中主要约束政府的“透明度”要求不同,人工智能治理中的透明度原则作为对技术的约束,其范围扩大至私主体,对商业主体(技术主体)施加了更多义务。随着国际社会对人工智能发展规律认识的不断加深,各国先后采取了提高透明度的法律和政策方案,并在人工智能算法、数据治理、自动化决策等方面引入相应的透明度治理措施。但透明度治理牵涉多方主体的利益,过度地提高人工智能系统运行的透明度可能导致数据安全、隐私泄露、阻碍创新等问题,并且和现有的技术标准与法律体系难以衔接。因此,人工智能系统的透明度要求应当是有限的、适度的,更类似于一种算法规制的手段而非目的。

关键词:人工智能治理;透明度原则;有限与适度;算法规制;算法黑箱

目次

一、透明度原则的内涵及适用范围

二、透明度原则在AI治理中的具体应用

三、透明度原则泛化带来的法律思考

一透明度原则的内涵及适用范围

(一)透明度原则引入AI治理的起源与内涵

透明度原则是指在信息公开、决策程序及理由阐释等方面应遵循的准则,较早应用出现在国际贸易和行政法等领域。WTO法律框架中的透明度要求意为“一项规则、法律或法律程序应面向大众公开,可以很容易地看到、查到和获得,就像人们能够毫不费力地透过干净玻璃窗看清事物一样”。它包含“相关信息应当公开”和“相关信息应是易于获得的”两个要求,其目的在于约束权力主体,促进信息披露,增强互信合作,最终维护制度的公平正义。而人工智能治理中的透明度原则并非从WTO法律框架下的透明度原则发展而来,更多是从技术视角对打开算法设计的“黑箱”而进行的规则设计,二者在理念上存在一定的共通性,即通过信息披露增强行为的可预测性和可信赖性。例如,WTO透明度原则要求成员国公开其贸易政策和法规,以减少贸易壁垒,促进公平竞争。类似的,人工智能治理中的透明度原则要求人工智能系统提供者披露该系统的运作机制、决策逻辑和数据使用情况,以增强公众的信任和理解。

将透明度原则应用于人工智能治理具有深刻的现实基础。人工智能是一项具有广泛当前和潜在用途的技术,它在经济各个领域和日常生活的各个方面发挥着越来越重要的作用,从驾驶汽车到控制关键基础设施,从诊断疾病到推荐娱乐内容……人工智能无处不在。然而,在带来种种便利的同时,人工智能的应用也伴生着算法歧视、算法共谋等风险。面对日益加剧的人工智能治理挑战,世界各国正积极寻求在人工智能法律规制方面的共识与途径。在此过程中,打破“算法黑箱”已成为国际社会积极应对人工智能诸多难题的首要出发点和核心着力点,透明度原则作为破解“算法黑箱”问题的关键手段,正发挥着举足轻重的作用。

透明度原则的内涵较为复杂,但一般包括算法公开、算法解释、告知义务三个方面。欧盟《可信赖人工智能伦理指南》中将透明度原则拆分为可溯源性、可解释性和可沟通性三个部分,这一解释被欧盟《人工智能法案》所沿用。可溯源性意为,数据集合产生人工智能系统决策的过程,包括数据收集和数据标注过程以及所使用的算法,都应尽可能地记录下来,以便进行追溯。可解释性意为,人工智能系统作出的决定能够被人类理解和追踪,每当人工智能系统对人们的生活产生影响时,人们都有权要求对人工智能系统的决策过程作出适当的解释。此外,人工智能运营者还应解释人工智能系统对组织决策过程的影响和塑造程度、系统的设计选择以及部署该系统的理由(从而确保商业模式的透明度)等。可沟通性意为,人类有权被告知他们正在与人工智能系统互动,人工智能系统不应向用户表示自己是人类。此外,必要时还应提供决定不与人工智能系统互动而与人类互动的选项,以确保符合基本权利。

(二) 各国AI治理的立法与政策中的透明度原则应用及发展趋势

透明度原则正在逐渐从理念走向实践,并且越来越成为一项国际共识。首届全球人工智能安全峰会签署的《布莱切利宣言》敦促各国在其行动计划中提供适当的透明度和问责机制,并鼓励商业主体在开发人工智能的同时提高透明度,以防止人工智能滥用、失控以及其他风险问题。

各国在人工智能国内立法和政策制定中也格外重视透明度原则的作用。美国在《算法问责法案(2022)》中要求评估法案所涵盖实体的“透明度、可解释性、可争议性以及使用者索赔的机会”。欧盟有关透明度的相关立法更加完善。欧盟《通用数据保护条例》(GDPR)强调“公平且透明的数据处理”(fair and transparent processing),要求“个人数据必须以透明的方式处理”,且数据主体必须知晓自己的信息正在被处理,知晓处理者和处理目的。欧盟《人工智能法案》则在人工智能系统运行方面对透明度提出要求,尤其要求高风险人工智能在进入市场前就达到足够的透明度。我国《个人信息保护法》第7条对此亦有原则性规定:“处理个人信息应当遵循公开、透明原则”,而《生成式人工智能服务管理暂行办法》第4条也要求人工智能服务提供者“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度,提高生成内容的准确性和可靠性”。

二透明度原则在AI治理中的具体应用

在算法规制、数据治理、自动化决策等不同领域,透明度治理面对着迥然不同的需求和挑战。因此,在以上不同领域,需要通过区别化的技术手段和政策框架实现人工智能系统运行的透明化。

(一)算法透明

算法透明是解决“算法黑箱”的重要方案,同时也是辅助算法问责与改进算法设计的工具,还具有增进算法社会的交往、理性与信任的内生价值。我国《个人信息保护法》第24条对算法透明作了较为粗略的规定,有待进一步细化。具体而言,算法透明有以下三项要求:

其一,公开算法源码。公开算法源码本质上是人工智能系统提供者技术披露义务的一部分,即人工智能系统提供者向使用者、监管部门或公众完整公开技术细节。公开算法源码有助于公众、监管部门对其内部逻辑进行审查和监督,帮助人工智能算法最大限度免于错误且保持完整。但也有观点认为,公开算法源码弊大于利:对用户而言,从技术角度评判人工智能系统安全性,明显脱离实际;但对不法分子而言,算法公开相当于帮助黑客降低发现系统后门的难度,节省其攻击准备时间和成本。有关公开算法源码的争议过大,故目前尚未有国家在法律层面普遍强制要求人工智能系统提供者公开算法,仅存在一些倡导性、宣示性的规定。

其二,提高算法的可解释性。公开算法源码是“形式透明”的要求,而提高算法可解释性是“实质透明”的要求,意味着人工智能系统提供者在完成形式信息披露的基础上,进一步以一般使用者足以理解的方式对前面披露的信息进行解释。可解释性包括两层含义:一是认识到系统的机理,即系统是如何工作的;二是厘清系统行为的原因。提高算法可解释性使得专业人员能够理解算法如何作出决策,并发现算法存在的问题。

其三,消除算法偏见。透明度原则要求算法应当消除偏见。保证算法对不同群体的公平性,最重要的是进行源头治理,在算法编写过程中消除社会固有的偏见。例如,我国《生成式人工智能服务管理暂行办法》第4条第2款就规定,产品提供者应在算法设计、训练数据选择、模型生成和优化、提供服务等过程中,采取措施防止出现种族、民族、信仰、国别、地域、性别、年龄、职业等歧视。

(二)数据治理

人工智能是一项依赖大型数据集的技术,数据在其中起着关键作用。数据的质量和数量直接影响人工智能系统的性能和可靠性,因此数据与算法对于人工智能系统同样重要,都需要接受透明度原则的审查。具体而言,可以从数据来源公开、数据质量保障两方面着手。

就数据来源公开而言,人工智能系统的数据来源应当公开,以便公众了解数据的来源和采集方式。数据来源公开,不仅确保了人工智能系统运行的可追溯性,也有利于公众在发现自身权益受到侵害时迅速找到责任主体,促进纠纷解决。当然,在数据来源公开的同时,需要关注数据隐私泄露的风险。人工智能系统提供者应当保护数据隐私,防止数据泄露和滥用,同时确保数据使用的合法性。为此,在进行公开的同时需要确保公开的数据是已经去识别化的。

就数据质量保障而言,人工智能系统使用的数据应当保证质量,包括数据的准确性、完整性和时效性。高质量、多样化的数据集使人工智能模型能够泛化和适应新场景,支持持续的迭代和改进。因此,获取最新的、有代表性的数据集对于保持人工智能系统的长期优势至关重要。使用的数据越优质、越有序,人工智能决策的解释就越清晰。

(三)透明度原则在AI决策中的应用

智能越是自主进化,过程和机制越不透明,结果就越缺乏可解释性。欧盟的《人工智能法案》明确规定,在高风险领域使用的AI系统必须遵循透明度原则,确保公众能够理解决策过程,并要求系统具备充分的可解释性。美国近来撤销了2023年签署的一项强化对AI安全监管的行政令,以进一步松绑政策对AI企业发展的限制。尽管其在短期内通过放宽监管促进了技术创新,但在全球治理的趋势面前,为了人工智能的商用和普及,对智能决策可解释性的需求越来越迫切,需要将黑盒决策转化为透明过程,建立起人与机器之间的信任,实现透明度原则在AI决策中的应用。

对于AI决策过程的透明性而言,在深度学习等算法应用中,系统的决策机制具有“黑箱”特性,使得AI决策难以被外部理解与解读,进而产生了不可预见的伦理和法律风险。透明度原则要求AI的决策过程不仅要公开其结果,还必须对外界保持一定的可理解性。当然,有观点建议,政府在其政策框架中要倾向于避免过度的监管,强调市场主导创新,认为强制性的透明度要求可能成为企业发展的“绊脚石”。

而对于决策结果的可解释性与责任明确来说,AI决策的责任明确与AI系统提供者的技术披露义务密切相关,是透明度原则在AI决策中的典型适用。AI系统提供者应否向使用者、监管部门或公众提供除有关性能、用途、操作使用说明、安全注意事项等内容外的技术细节,包括研发过程中使用的训练数据和以代码形式呈现的算法,甚至像有观点所主张的对人工智能开发运用的整个过程进行监督?AI决策的可解释性是透明度原则的核心,不仅是对算法的透明化,更是对决策后果负责的一种体现,是责任明确的参考依据。

三透明度原则泛化带来的法律思考

透明度原则在信息披露、数据隐私保护和技术滥用等实际应用中常常伴随着一系列复杂的法律问题,特别是新近深度求索公司(DeepSeek)被意大利和爱尔兰有关保护机构相继提出数据处理询问请求,要求对有关数据主体的数据信息提供处理信息,直接形成了“如果不说明训练过程和数据来源就会违反透明度原则”和“进行完全披露后又可能造成安全隐患”的两难悖论境地。同时,随着透明度要求的普遍化,出现了过度透明、妨碍创新成果保护、责任界定与技术标准衔接的不适配等一系列潜在的法律困境,亟须从法律角度进行深度思考。

(一)透明度原则与保障AI安全发展之间的矛盾

透明度原则要求AI系统在应用时,应尽可能地透明化其数据来源与决策过程,然而AI技术的复杂性(如“黑箱”模型)使得完全透明化变得困难。例如,通过特征重要性分析和模型可视化等方法提升透明度,可能增加计算资源的消耗。此外,除了技术复杂性导致完全透明化困难,来自国家层面的安全发展要求与透明度原则的权衡,使得技术的发展增加诸多考量因素。以深度求索公司为例,尽管该公司已将其大语言模型V3进行开源,但这并不足以表明其全面满足透明度原则的各项标准。当前,以意大利、爱尔兰为代表的欧盟国家以数据合规为切口,要求深度求索公司提供有关公民个人数据使用方面的信息,包括但不限于使用公民个人数据的具体内容、使用目的与方式以及存储的合规性等关键环节。这意味着,技术创新浪潮与国家层面透明度规制需求之间存在着难以轻易弥合的张力。因此,如何在技术日新月异的发展态势与透明度规制框架之间,探索一条既符合时代要求又不失公允的平衡之道,已成为亟待解决的时代课题。

值得注意的是,模型开源(Open-source)与技术透明(Technical Transparency)存在本质差异。深度求索公司的案例表明,即便在设置相应许可证协议的情况下开放模型参数,仍无法满足欧美国家依照本国法律关于数据来源公开的相关强制性要求。这种制度与技术间的张力,揭示了人工智能治理领域普遍存在的“透明化悖论”——技术演进速度与规制体系建设间的矛盾。本质而言,各国针对深度求索公司提出的数据保护合规要求,其核心旨在捍卫国家核心利益,防范技术过度迅猛的发展可能对国家安全构成潜在威胁。然而,对于透明度的过高要求与严格规划,是否在无形中为技术的迭代升级设置了障碍,进而可能在一定程度上阻碍了社会整体福利的提升进程?

(二)过度透明容易导致隐私泄露

在AI技术的应用过程中,透明度原则要求公开数据的来源、处理过程以及算法的决策逻辑等。而AI系统的训练和运作依赖于海量数据,其中可能包含大量的用户信息、行为数据甚至敏感的个人隐私信息。随着对透明度的追求,数据的细节和来源可能被过度公开,从而使隐私保护面临严峻挑战。具体而言,系统开发者为了展示决策过程的透明性,选择公开数据的来源和处理流程,无意间暴露了与用户密切相关的隐私信息,尤其是当数据集包含了用户之间的关系网络、社交互动内容等隐私元素时。即使数据经过“去标识化”处理,若数据集中的某些特征和行为模式可通过推断或技术手段进行恢复,个人隐私依然面临泄露风险。

透明度的核心目的是使公众理解AI系统的决策过程,确保决策公正性与可信度。美国政府认为过度透明化可能限制市场发展并带来不必要的监管负担,主张应谨慎对待数据公开和隐私保护之间的平衡。欧盟的《通用数据保护条例》明确规定了数据主体的权利,要求在处理个人数据时必须遵循隐私保护原则。其对透明度有明确要求,但也规定了“数据最小化”原则,即在数据收集、处理或公开时,不应超出必要的范围。我国的《个人信息保护法》强化了透明度要求,要求所有数据处理活动遵循“合法、公正、透明”原则。AI技术的透明度要求与数据隐私保护之间的矛盾,实际上是技术创新与法律合规之间的博弈。透明度原则固然有助于提升公众对AI技术的信任与理解,但在过度透明的过程中,依然面临触及隐私保护底线的问题。

(三)AI治理的透明度要求与保护创新成果发生冲突

透明度要求的泛化在一定程度上与创新成果的保护产生了显著冲突,过度的透明度要求会对技术开发者的核心竞争力造成侵蚀,削弱其持续创新的动力。平衡透明度与知识产权保护之间的矛盾,成为AI治理中亟待解决的法律难题。

1.商业秘密保护

商业秘密是企业维持竞争力的重要保障。企业通过独特的算法、数据模型以及处理流程在市场中占据优势地位,若透明度要求过于严苛,迫使企业公开其算法的细节和数据源,可能导致技术的迅速外泄,为竞争对手提供借鉴的机会。如果开发者在满足透明度要求的同时,公开了算法的部分核心内容,竞争对手可能通过逆向工程等手段还原其算法模型,从而轻松获得原本需要通过大量研发努力才能实现的技术成果,故企业难以在保障其技术的公正可理解性与过度透明揭示其商业机密之间斡旋。美国政府对于AI技术的监管立场强调,过度透明会无意间削弱市场竞争力,AI技术的快速创新依赖于企业对核心技术的独立控制,监管应在确保技术公平性和公正性的基础上,适度审视透明度要求的实施,实现对企业的“松绑”,在保护创新者市场地位的同时应对AI治理的新一轮挑战。

2.著作权侵权认定规则的改变

AI的训练过程通常需要大量的数据集(大部分为已有作品内容)。为了训练AI系统,开发者使用现有的书籍、文章、音频、视频等内容,甚至直接利用商业性数据库,进而关系到是否公开这些数据集的使用情况以及是否存在著作权侵权问题。传统的著作权侵权认定主要基于作品的“复制性”与“实质性相似性”,即判断复制的目的、复制内容与原作品的相似度等。而AI系统的“复制”行为通常是转换性的,即将已有的作品转化为可供机器学习处理的数据,最终输出的结果可能与原作品有本质的不同。换言之,AI系统的输出并非直接展示原始作品,往往通过某种特定方式进行转化,从而产生新的表达形式。这种转化性使用能否视为侵权、是否构成合理使用亟待考究。

以汤森路透与罗斯智能公司(Ross Intelligence)案为例,罗斯智能公司提出合理使用的抗辩,认为其使用数据库内容的目的具有变革性,符合合理使用的标准。类似案件屡见不鲜,开发者在面临透明度的要求时,往往面临两难的境地:既要保护著作权和商业利益,又要顺应技术发展与公众期待,因此很难对相关内容进行全面的公开明示,进一步加剧了“算法黑箱”现象对透明度的影响。

(四)透明度原则与责任归属认定、技术标准衔接之间的不适配

AI系统的决策过程往往牵涉算法的设计、数据的来源、系统的训练方式以及实际操作中的人类行为等,当这些环节被完全透明化之后,界定责任就变得更加困难,继而导致责任的稀释,从而加剧了法律与技术之间的脱节。欧盟《人工智能法案》提出,法律不应干预在投放市场或投入服务之前人工智能系统或模型的研究开发。当然,人工智能系统提供者负有产品说明义务,如欧盟《人工智能法案》所表述的,使得用户能够解释(interpret)系统的输出(output)并予以恰当使用。在自动驾驶领域,若算法本身存在缺陷,则系统提供者难辞其咎。然而,驾驶标准的制定往往滞后于技术的更新与发展,技术与标准衔接不适配需要在透明度原则的基础上建立适配的规则大厦。

从算法设计到数据来源,再到系统训练与实际操作中的人为干预,任何环节的透明化都可能导致责任分散,造成技术逻辑与治理逻辑的不适配,最终难以明确界定责任主体。随着AI技术的快速发展,标准的制定往往滞后,且全球统一的标准体系难以实现,技术与标准的脱节加剧了透明度原则的实施难度,使得责任的归属认定越发困难。未来必将是高度依赖技术创新的时代,技术与法律标准的衔接将成为确保透明度有效性的关键:技术与标准分层治理,不同的层次适配不同的规制思路与工具,及时发挥和完善标准保障技术的规范化作用,消弭因技术支持不足与法律适配滞后所带来的责任界定难题,实现透明度原则的理论适配。

文章来源:《数字法治》2025年第1期

    进入专题: 人工智能治理  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 民商法学
本文链接:https://www.aisixiang.com/data/161700.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。

评论(0)

Powered by aisixiang.com Copyright © 2024 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统