马长山:数字治理的法治考量

选择字号:   本文共阅读 290 次 更新时间:2026-01-08 13:38

进入专题: 数字治理   数字正义   数字法治  

马长山  

作者简介:马长山,华东政法大学教授。

原文出处:《数字法学评论》(京)2025年第4期 第3-25页

内容提要:当今信息革命深刻地改变了人类生活,形成了数字化的生存方式、建模化的日常生活、张力性的关系结构和数字正义的诉求,从而奠定了数字治理的社会基础。然而,由于各种因素的作用和影响,也出现了对价值观的数字塑造、对主体自由的威胁、算法决策的“强制”效应等法治风险,因此,需要确立“人本主义”的法治价值,回应《全球数字契约》倡议,构建人工智能的伦理约束机制,探索“中国式”的数字法治,从而为全球“数字文明共同体”贡献交流互鉴的“中国方案”。

关键词:数字治理/ 数字正义/ 伦理约束/ 数字法治/

 

回望历史可以看到,几次关键的社会革命改变了人类命运,决定了人类的发展走向。第一次是农业革命,它使得人类不再依靠采摘和狩猎来维持生存,转向通过种植和养殖来保障稳定的生活,从而走出了动物界的生存方式,获得了真正的人类生活能力。第二次是工业革命,它使得人类不再依靠畜力和自身体力来完成劳动,转向通过机械作业来提升工作效率和实现社会化生产,从而走出了天然自在的生存方式,创造了工商文明的生活模式。第三次就是当今信息革命,它使得人类不再受制于物理时空的阻隔和束缚,转向虚实融合、自动智能的生产生活,从而走出了物理性、生物性的生存方式,开启了数字文明的社会样态。而每一阶段都是人类的一次巨大跨越式发展,并引发颠覆性的制度变迁,在一定意义上呈现出传统法制—现代法治—数字法治的历史演进逻辑。数字治理的法治化,无疑就是其中的关键一环。

一、数字治理的社会基础

信息革命让人类第一次走出了天然给定的物理时空,开启了物理-精神-数字的“三维世界”生活,其中最为重要的乃是生存方式、组织方式、社会结构和价值形态的深刻变革,这些变革形成了对工商社会秩序的颠覆性重建,促生了数字治理机制和数字社会秩序。

(一)数字化生存的基本方式

在当今数字时代,数据和算法已成为其中的关键性要素。一方面,人们的日常行为越来越多地通过在线方式来实现,每个人都在既有的生物性外,又添赋了数字性;过去这两个空间是分离的,如今已经融为一体,我们每一个人、每时每刻都徜徉于虚实同构的情境之中;从衣食住行到公共生活,每个人都具有自己的数字身份,形成了交互流动的数字行为和数字关系。接下来的世界,“一定是真人与虚人一体化的平行人:平行人=人+i人,平行物=物+i物,开始是虚实的一对一,然后是一对多,多对一,最后是多对多,形成虚实互动、互生、互存的平行社会”①,进而形成了“数字化双胞胎”,并“与‘他’的人如影相随,以确定他的未来,成为他的新命运”②。另一方面,社会生产和服务越来越多地依托数据和算法来完成,数字孪生城市和元宇宙场景越来越多地融入现实生活,从而生成了无所不在的多环信息圈和数字生态环境,人们对这种环境产生了高度的黏性依赖,并在不知不觉中重塑了自己的行为方式、生活和价值观念,人脸识别、数据画像、隐私计算、自动驾驶、算法派单、算法裁员等也成为数字社会的生活日常,从开车到股票交易再到公司人员配置等一系列重大决策权,正在“从人手中转移到算法手中”③。这表明,信息革命并不仅仅是一场技术革命,它在更大意义上是一场人类革命——从自然人类转向“数字人类”④,数字生活也成为人类的基本生存方式。于是,“人类变成了制定规则的上帝,所有伴随人类进化历程中的既定经验与认知沉淀将遭遇颠覆性挑战”⑤。

(二)建模化的日常生活形态

随着大数据、云计算、区块链、人工智能等新技术的飞速发展,网络化、数字化、智能化将成为社会生产与生活的常态,如今人们已经越来越离不开手机,离不开导航,离不开网约车——“我们塑造了工具,而之后,这些工具又塑造了我们”⑥。基于此,人们的生活越来越舒适、越来越个性、越来越自动化;但同时思维和行动也越来越数据化、虚拟化。这样一来,“定义我们道德生活的无法量化的部分变得可以量化了,拥有了这样的技术,从我们的决策中获取最大的效用变得太有诱惑力以至无法拒绝。不需要质疑道德窘境、安全地知道我们不会犯错,真是这样我们反而处于危险之中,我们可能失去了作为人类最为珍视的一部分:我们的人性”⑦。而我们的目标应该是“利用当今网络技术的优势来进一步保存我们的文化和价值观,并在保护现有体制和塑造数字世界之间达成平衡”⑧。

事实表明,数字社会的优势就在于场景定制和程序建模,从而形成一套算法来提供智能化的产品和服务,通过采集信息、分析数据、设计算法来归纳不同人的具体适用模式,进而个性化地“推荐”给特定消费者,其背后则隐藏着算法和商业价值的诱导甚至主导,乃至商业建模对消费者的塑造。这样,人们日渐依赖各种算法,其享受自动化的便捷舒适服务过程,也是一个“只能被动接受结果”的过程,⑨使得日常生活走向了建模化。

(三)张力性的关系结构

数字时代大大提升了人类的生产力和创造力,它不仅使“我们工作和娱乐的真正本质将会被改变”⑩,也使得社会关系面临着重大的解组和重构,甚至会形成某种悖反性的张力结构。

其一,大平台与“微时代”双向并存。数字时代也是一个平台时代,其瞬间崛起主要缘于新兴的数字赋权。一是业态赋权,如网约车、短租平台、京东商城、美团外卖等各种新业态、新模式,打破了传统的营销模式和监管框架,形成了平台化的运营生态与治理机制。二是公共赋权,塑造了数字政府、数字检察、数字法院、数字纪检监察等业务形态,形成了平台化的公权力运行模式。三是大众赋权,形成了数字身份、数字空间、数字人格、数字权利、数字参与等共建共治共享机制,成为商业平台和公共平台运行的重要参与方、互动方。这样,就形成了大平台的社会组织架构。公权力平台的中心化自不待言,商业平台则是在“赢者通吃”的网络空间法则下,“为数不多但势力庞大的几家平台主宰了市场”(11),这意味着,它突破了以往的商业领域单一性而具有强大的涵摄覆盖能力,具有得天独厚的数据占有和智能“算法”优势,并拥有对平台市场营销秩序的自律监管权,包括制定规则、处罚违规行为、解决纠纷等准“立法”“执法”和“司法”权力,因而形成了“要么利用平台,要么就被平台淘汰”的发展态势。

然而,随着数字化生存的深入发展,大数据、人工智能也越来越塑造出一个去中心化的“微粒社会”(12),产生新型的“微粒社会”和“微粒人”。“在这个过程中,形成了个人主义、新型的从属关系及社群。不同以往的是,现在从属于某个社群的概念更多地由个人行为、价值取向和兴趣决定,而不仅仅由地理位置(当地社区)、职业和家庭决定。”(13)它消解了工商业时代的那种产业阶层、职业身份和社会结构,呈现出一个扁平化、分布式、“以我为中心”的社会,“我们的身体、我们的社会关系、自然界,以及政治和经济—— 一切都将以比之前更加精细、精确、透彻的方式被获取、分析和评价”(14)。于是,形成了布满“微粒人”的微时代。这种双向发展反映了去中心化和再中心化的交互逻辑,难免会形成断层性的数字鸿沟,从而带来系统治理的严峻挑战。

其二,选择多样性与“被迫”接受并存。数字时代带来了空前的扁平化、自由化和分布式发展,在网络价值化、数据资产化、电商垂直化、商业生态数字化、虚拟现实化成为常态生活的背景下,商家为大众消费者提供着花样翻新、刺激好玩的多样性选择。然而,社会大众在各种新技术产品面前变得越来越“无知”和“无能”,如QQ、微博、微信、支付宝、百度地图、滴滴打车等,其安装使用(包括升级)“告知”条款所留给公众的基本是概括性同意选项——要么全部接受来“进场游戏”,要么选择拒绝这些科技文明成果,回归传统生活,甚至变成孤家寡人。这样,大众消费者的选择在强势技术垄断力量面前成为一种“被迫”接受,“互联网的控制权越来越集中在强大的互联网公司手里,它们受到软件和硬件的限制”(15)。

其三,“无用”大众与精英垄断并存。互联网带有强大的自我赋权功能,造就了日益扁平化、分散化、自由化的社会大众,但同时,也造就了迅速崛起的技术精英和资本精英——他们为数较少,创造财富的能力和速度却是空前的,并与政治精英共同成为社会的主宰力量。而随着人工智能的进一步发展,大量复杂度不高、重复性的劳动将被智能机器人所取代,必然使众多传统工作岗位受到巨大冲击。工业革命在淘汰旧职业的同时创造了更多新职业,这在很大程度上是体力劳动之间的“平移”;而人工智能带来的替代则是从体力到脑力劳动的“升级”,因此,已经被替代的“体力”劳动者则很难再获更高级的“脑力”岗位。相反,它会导致“只有很少一部分人工作得有价值,这一少部分人的工作足以创造巨大的价值,而大部分人其实很难在现有的经济体系下创造价值”(16)。这就会深度放大人类社会的歧视与不平等,虽然先进科技可以彻底增强我们的体能和认知能力,但“有权优先获得这些技术成果的群体可能会逐渐跟其他人分道扬镳,变成独立的种群”(17),其结果则是制造了普遍性的“无用”大众、被消费的大众,中产阶级和传统的阶层划分将在断层极化中不复存在。虽然说这只是一种预测性的“21世纪最大的风险”(18),但这种迹象还是存在的,社会关系也必然发生革命性变迁,极化结构特征日渐明显。

其四,自由与控制同步增长。在互联网兴起之初,人们对互联网寄予了过高的理想主义期待。“网络自由主义者”甚至宣称:“我们正在建设的全球社会空间,将独立于你们想对我们进行的专制统治”,“你们的财产、表达、身份、活动和条件的法律概念不适合我们。这些概念建立在物质基础上,而我们这里没有什么物质”,因此,“最终解放我们的是技术,而不是法律和制度”。(19)这无疑带有天真的技术决定论倾向。事实表明,数字化生存确实大大扩展了人们的自由空间和范围,但同时也限缩了近代以来的一些传统自由和权利,甚至出现了穿透性的数字控制,也即人们享受着智能互联网新技术的各种福利,但“世界的新主人向我们许诺的好处太过诱人,而人们失去的自由太多”(20)。一旦生活中的众多事务都由数据分析、代码编排和外部算法来管理,那么,人们的隐私、自由和权利就会受到限制,数字鸿沟、信息茧房、算法偏见和社会分化等问题便会加剧。也就是说,在这场信息化的数字化革命中,“人们用失去隐私、丧失个人生活和失去批判精神的代价换取可预测性、安全性,以及人类寿命的延长”(21)。这样,传统自由主义基于物理空间所推崇的“人类生命及人类体验神圣不可侵犯”的自由、平等、人权、公平等信念,将会遭受致命的打击,甚至会出现“崩溃”之势。(22)其间,自我赋权与国家规制,社会大众与精英群体(资本精英、政治精英、技术精英、文化精英),社会自主与政府监管等面临着复杂博弈、深度变革与严峻挑战。

(四)数字正义的时代诉求

现代化是几个世纪以来的世界性发展潮流,也是后发现代化国家所一直追赶的目标。然而,对于当下正在发生的信息革命,人们则逐渐脱离“现代化”路线上的审视和定位,转而从不同角度冠之以“信息时代”“数字时代”“人工智能时代”“智慧时代”“算法时代”之名。这意味着,当今信息革命正在推动着人类社会的新一轮更新换代,“许多以前我们曾经依赖的东西,正在数字化时代支离破碎”(23),而与传统工业社会完全不同的社会结构、行为方式、知识体系和价值观念却正在加速形成。比如在认知方式上,近代以来人类一直秉持着以科学实验和知识经验为主导的认知世界方式。然而,在人类迈进数字时代之后,人们已经摆脱了物理时空中生物性、局域性的自然感知,形成了数字时空中的在线连接,因而形成了全面信息化的数字生态环境,多环信息圈开始在任何空间中弥散。(24)这样,数据和计算观念则为人类提供了认识和理解世界的全新方式,并对生产生活关系产生了深刻影响。再如,“对代码的控制就是权力”,它“正成为政治角逐的一个至关重要的焦点。应由谁来编写那些构筑我们日常生活的软件?”(25)同样重要的是,“对于关乎个体权益的自动化决策系统、算法和人工智能,考虑到算法和代码,而非规则,日益决定各种决策工作的结果,人们需要提前构建技术公平规则,通过设计保障公平之实现,并且需要技术正当程序,来加强自动化决策系统中的透明性、可责性以及被写进代码中的规则的准确性”(26)。可见,数字时代的法律价值革命将是一个深刻的、艰巨的、长期的探索过程。

面对这种时代的重大挑战,并不宜简单套用或者扩展重释既有的正义标准,关键在于对“数字时空”正义观的探求和确立。事实上,人类自古以来一直生活在天然给定的物理时空之中,人们从身份、财富、机会和条件的分配出发,对公平正义进行价值考量和制度安排。但进入数字时代后,人类突破了“上帝”圈定的物理围栏,构建了虚实交融的双重空间;突破了人类与生俱来的生物属性,每个人都形成了自己的数字身份和数字人格;突破了人类与工具的传统主客关系,人工智能体能够参与人类决策,形成了人机协同关系。这意味着,千百年来惯常的人类生活发生了空前的颠覆性改变,基于传统人类生活的公平正义观念也不得不进行重建。具言之,“在工业革命中,一切事物都围绕着生产和劳动力控制,而在信息社会中,一切社会行为则围绕着生产与信息控制”(27)。因此,基于“分配”的“物理时空”正义观,日益转向基于“控制”的“数字时空”正义观,重建数字时代的人类认知,探索数字正义价值体系,进而为数字治理提供必要的价值基准和规制尺度。

综上可见,正是数字化生存的基本方式、建模化的日常生活形态、张力性的关系结构和数字正义的时代诉求等深度变革,改变了工商社会的生活方式和行为规律,塑造了数字社会的运行模式和秩序样态。为此,从地域化、层级化、固态化的社会治理迈向泛在化、节点化、液态化的数字治理,就成为一种必然的趋势。

二、数字治理的法治风险

现代社会是一个工商社会,主张人格独立、契约自由和权利保护,然而,这些都发生于物理时空之中,并不存在于现在的虚拟世界中。进入数字时代后,“你在应用互联网连接世界时,互联网实际上重塑了你与世界接触的方式”,这就“急剧地改变了集体行动的成本和能力”。(28)然而,人们对它的很多担忧也并非毫无根据,特别是一些风险已经出现,并产生了明显的秩序后果。

(一)对价值观的数字塑造

在当今数字时代,网络平台、技术公司、商业公司、政府部门等搜集、掌握着大量的个人数据和信息,并利用这些信息资源为社会公众提供着更为便捷、高效、精准的各类智慧化服务,但同时,它们有意将自己的意图嵌入数据处理和算法建模中,却披上数据“客观性”外衣的情况时有发生。具言之,一些程序员在处理数据、设计算法、编写代码的过程中,难免要掺杂一些潜意识的主观偏好,甚至会对一些给定的规则进行调整。如犯罪风险评估算法COMPAS对黑人高犯罪风险概率的评估,误评为白人的两倍。(29)而更多的情况也表明,“预测警务技术可以被用于好的方面,也可以致使不公正现象永久存在。使用带有种族偏见数据的算法只会延续警务工作中固有的偏见,导致更多的不公正”(30)。算法歧视就是十分突出的一个,“在数据集中,杂乱无序的各种相关性暗含着隐秘的规律性,其中很可能就存在某些偏见”(31)。即便是打着“个性化服务”旗号的精准推送,也难免会带来严重的社会问题,因为“如若长期缺乏对不同产品、视角,甚至于思想的接触,可能会破坏在共享政治与社会生活中所必需的参照点,从而对创造力和宽容态度的形成构成强大的阻碍”(32)。而且,“大数据的定量分析和结构化信息可以形成新的洞察力,从而能够造成商业歧视和群体歧视。随着群体变小(按地理位置、年龄、性别等因素划分群体),更容易引发歧视问题”(33)。特别是在社交软件、商业交易、广告推送、岗位招聘中不断浮现出对用户的诸多数据歧视和不透明现象,“你可能并不知道你为什么没有得到那份工作,你或许永远不会知道,其实是因为数据歧视了你”(34)。这样,原来人类决策中可能存在的个别化歧视,就随之演变为算法的系统化歧视,出现了算法歧视的泛化倾向。

进一步说,这些算法决策是通过代码指令来完成的,而代码是人类与计算机交互工作的程序语言,它既要符合确定性、标准化、通用性、可扩充性、稳定性等行业通用属性,也体现着程序员的专业理念和对问题求解的目标取向。可见,“编程是一种创造性活动。写代码是无中生有的创造过程,我们大胆地从混沌之中创建秩序”(35),其中无疑隐藏着编写者的个人偏好和价值观。它既包括根据不同的应用决定使用不同的编程语言、选择不同的编译转换路径、指令被执行的不同方式等技术性理念,也包括为完成预定任务而确定不同的代码编写方案和问题目标。在这里,“我们可以建造,或构筑,或编制网络空间使之保护我们最基本的价值理念,我们也可以建造,或构筑,或编制网络空间使这些价值理念丧失殆尽。这里没有中间立场”(36)。而在代码编写商务化和政府规制代码的博弈过程中,“代码就是法规,商界和政府能联手修改代码”(37)。于是,代码也就时刻编制和塑造着数字时代的社会价值观。为此,开放代码就成为规制秩序的一个重要目标,这就需要确定数据处理原则,“客户的数据信息应该属于客户,应该由客户决定与哪家企业分享哪些客户数据信息”(38),进而能够“赢得数据”。同时,人机价值对齐也并不是智能体与代码和算法设计开发者的“对齐”,而应与社会的共同价值观“对齐”。

如今,新兴的ChatGPT和各类大模型的生成内容也都带有不同的价值观,对于相同的问题,不同的大模型会生成不同的甚至截然相反的内容,这里并不仅仅是技术问题,也存在价值对齐问题。由此可见,在算法决策逐渐替代人类决策的数字社会,算法的“客观性”背后难免会有有意或无意植入的价值偏好,使得社会治理问题变得更为复杂和严峻,成为全新的难题。

(二)对主体自由的双重威胁

自启蒙运动以来,“上帝死了”,人便成为这个世界的主人,自由和理性得到了高度弘扬。然而,当今信息革命的一个重要后果,则是“人类将成为信息体”(39),因而,从单一的生物人(自然人)转变为生物—数字的“双面人”。此时,主体自由就面临着内在控制与外在控制的双重威胁。

在内在控制上,谁掌控、处理数据信息,谁就拥有了控制他人行为和思想的能力。在美国的总统大选中,脸书、推特、油管等平台公司通过抓取、分析大量用户信息,进行数据画像和个性化推送,从而操纵选民的意识和行为,“这种影响不会触发用户的意识,而是一种潜意识,使它们成为你思想的一部分,还让你觉得这是自己的主见”(40)。英国脱欧过程中,也上演了这样的操控大戏,并直接影响了投票结果。这就引起了一场“新政治形态革命”,即“未来操控政治的,将是数据,而不是你的大脑”(41)。在日常生活中也是这样,平台公司或技术公司拥有技术优势来“透视”客户,在它们面前“个人总是可见的和透明的,即全景开放的”(42),甚至被装在“玻璃笼子”里等待数据“投喂”。比如,客户打开一个网络链接,他以为自己所看到的是跟别人一模一样的真实世界,而实际上他所看到的只是推荐算法让他看到的“推送世界”。这乃是“过滤泡”在发挥作用,“在过滤泡里,只有你一个人”(43)。于是,客户就越来越偏狭,越来越与真实的世界发生分离。人的主体性、自主意识、判断能力和选择能力就会逐渐丧失。这无疑就隐性地剥夺了人的意志自由和行动自由,助长了“数据独裁”。(44)因此,在商业交易和生活消费过程中,大数据杀熟、算法歧视等也就不足为奇了。

在外在控制上,人们所熟知的算法控制劳动、弥散化的社会监控等颇受诟病。事实上,大数据和信息技术的飞速发展,把人们带进了“无处不在计算”,同时也“无处不在监视”的时代。(45)在经济领域,商业组织都难以抵挡将收集到的个人数据进行整合、分析和利用的巨大诱惑;在行政领域,一些国家的政府也经常以“国家安全”名义和“立法”形式,对个人数据信息进行随时监控和检视。就像“棱镜门”事件那样,不经意间,公民的通话通信记录等个人隐私已为公权力所掌握,“像美国这样的高科技国家,通过收集、整合几个跨国互联网公司的数据,就可以对世界上大多数的人口进行监控”(46)。最近,欧洲经济和社会委员会已经开始注意到这个问题的严重性,在分析了政府的向下监督、公民的向上监督、社会的平行监督和公司内部的自我监督之后,深刻地指出:“监视贯穿整个社会,且没有方向性,在社会的各个层级,包括层级内部,监视无处不在。”(47)它充分利用网络化、数字化和智能化的技术手段,织起一张有形无形并存、虚实空间同在且隐蔽无声的监控大网。为此,有西方学者奋力疾呼:国家和个人层面的监控高潮正在悄然到来,“这个监控高潮是在政府机构、军事部门索求更多权力的刺激下产生的。他们要寻求更多的权力,以阻止间谍活动、恐怖主义和犯罪活动对人们的侵害。这波浪潮来得无声无息,根本没有谁注意到”(48)。这种数字化的无感控制呈现泛化趋势,甚至成为一种日常生活机制。

(三)算法决策的“强制”效应

事实表明,算法决策在提供便利、效率、客观、安全等进步成果的同时,也存在一定的问题和风险,出现所谓“黑箱”中的算法“霸权”,其实质是一种“强制”效应。

首先,能够控制用户行为。随着技术进步和数字经济、数字政府、数字司法、数字社会、数字生态建设等的不断深入与升级,人工智能会获得更加广泛、更高级别的应用,因此,在商业交易、公共政策、司法过程、交通出行以及日常生活中,会越来越多地通过量化和计算来呈现,算法决策随之越来越多地取代人类决策,人类进入了“算法为王”的时代。此时,“算法决定了信息增长的秩序,同时它贯穿了经济系统的所有组成部分和流程,支撑并控制系统中各种经济活动以及所形成的各种经济关系,决定了经济系统的秩序”(49)。人们认为算法基于海量数据的全样本分析和自动运行,能够避免人类主观性的影响,因此更加客观,更有效率,也更为精准。然而,不容忽视的事实是,或者出于专利保护目的,或者因为技术说明难题,或者出于其他商业目的,成千上万商业实体和政府所设计和运行的算法大都成了并不公开透明的“黑箱”,这意味着它们可以规避审查。于是,用户只能接受最终的结果,那么,算法就从预测中衍生出对用户行为的控制了。也就是说,在当今算法时代,被赋予决策权力的算法官僚越来越多地被用来推动、引导、刺激、控制、操纵和约束人类行为。这种情况获得普遍存在和泛化发展,就会形成一个“黑箱”社会,随之出现各种“暗算”,歧视和不公、不当牟利甚至欺诈就在所难免了,权利保护也自然面临着重大的、全面的威胁。

其次,“算法侵害”危及人权。“人类正逐渐将手中的权力交给自由市场、集体智慧和外部算法。”(50)而一旦它通过将人们归类为危险的,将人们与不良特征或社会关系相关联,或者将人们与其他危险的或具有不良特征的人归类在一起,就对人的身份和名声形成了“算法侵害”。就目前来看,社交软件、广告推送、量身定制、岗位招聘、警务预测、风险评估等各类商业和公益领域的算法决策,都不同程度地存在着这种控制倾向,其中还包含着“不稳定、不公平和不劳而获的因素”(51),也就难免会出现算法歧视、信息控制、侵犯隐私等权利保护风险。同时,“互联网的控制权越来越集中在强大的互联网公司手里”(52),由于人工智能在公共治理领域的应用相对滞后,因此,就难免出现算法官僚“权力滥用”的风险。(53)而在很多安全、评估、检验、审查等应用场景下,算法系统也容易成为人类转嫁决策风险、逃避问责的重要手段,既有的权利保护机制必然会受到严重侵蚀。

最后,系统性错误难以救济。由于算法是通过数据传输和赋值、算术运算、逻辑运算、关系运算等方式来完成的,因而,也就存在着正确性、容错性和效率性的优劣之别,其“危险在于没有人能确保该算法设计准确,尤其是当它与众多算法交互时”(54)。如2015年谷歌图片软件曾误将黑人的照片标记为“大猩猩”;2004—2007年美国科罗拉多州的公共福利系统曾因程序员没有法律背景知识而植入900多条不正确的规则,其“对政策进行错误的编码导致成千上万人遭遇不公正的对待”(55);等等。在公共管理上,自动化系统也已经由简单的行政管理工具变成了主要的“决策者”,算法做出判断的效率和正确率大幅提高,但“一旦它们做出了错误的决定,其造成的后果就很有可能是骇人听闻的”(56)。尽管人类对此有事后矫正的渠道和方式,但事实表明,“机器在学习过程中可能会重新建立起我们当前已经修正的隐含在数据中的偏见”(57)。当这种误差被系统化后,算法秩序就会脱轨。而对这种脱轨所造成的后果既难以纠正,也难以救济。

上述这些数字治理风险并不是简单的技术性风险或者社会性风险,其根本上是一种法治风险,如果不能进行有效防控和抑制,必然会危及社会秩序,数字法治也难以建立起来。因此,这必将是一个重要的时代任务和使命。

三、数字治理的法治回应

事实上,无论是现代法治还是数字法治,核心都在于限制权力、保护权利、遵守规则和程序。因此,如何防范和抑制数字治理的法治风险,确立符合时代要求的数字法治理念,构建有效的数字治理法治化机制,就变得重要而紧迫。

(一)确立“人本主义”的法治价值

当今网络化、数字化、智能化技术的飞速发展,为人类创造了空前便捷、舒适、智慧的高品质生活,于是,技术主义、数据主义和技术中立获得了更多认同,甚至出现了“经济奇点”“技术奇点”“法律奇点”等乐观预期,鼓励创新、审慎包容也成为政府监管的主基调。然而,这些新兴技术的负面影响也日渐浮现出来。一方面是新兴技术开发应用中的偏差,如大数据杀熟、数据鸿沟、信息茧房、算法黑箱、算法歧视等,导致了严重的数字不公和数字人权问题;另一方面是技术理性对人文精神的侵蚀,也即如果将人类的所有活动都纳入大数据分析框架,那无疑就会变成一种冷冰冰的、功利主义的计算。而“一旦权力从人类手中交给算法,人文主义的议题就可能惨遭淘汰”(58),而期待“奇点”到来以替代人类的“非人类中心主义”设想,则更是与人类的本性相冲突,将会引发技术异化和人类异化的重大风险。

事实上,近代以来人类科技开始加速发展和迭代升级,它在不断创造文明进步和提升人类生活品质的同时,与人文之间的张力也日渐凸显,为此,对技术理性的人文反思和批判就逐渐成为一种思潮,并形成了异化劳动理论、物化理论和技术理性批判理论等。当人类的决策越来越依赖算法,人越来越像机器,而机器越来越像人的时候,则更彰显了技术理性的异化——从解放人的力量变成了桎梏人的力量,乃至“技术理性和人类的价值在争夺现代人的灵魂”(59)。而对于信息革命而言,控制论大师维纳早就意识到它是善恶兼具、机遇与风险同在的,(60)因此,在当代技术的加速变迁面前,人类必须做出的终极价值选择是:“在创造使得世界不再是过往的世界、我们不复是从前的我们时,如何使人性依然可以框定技术前行的方向,而不是臣服于技术变迁的逻辑。”(61)因此,我们需要防止数据、代码和算法形成的价值观念和决策机制对人类的主体价值和人文精神产生巨大的冲击。这就需要在数据、代码和算法中嵌入人文价值和道德判断,加强人机价值对齐的法治机制,以保持其正当性与合理性,实现“人本主义”法治价值的规约指引,这无疑是一项紧迫的时代任务。

当然,技术中立论者会争辩说,技术本身并不持有价值立场,而是旨在创新进步和改善人类生活。但事实上,大数据分析、算法决策、区块链等数字技术都是由人来设计、编码和校验的,它既会有客观上的自身局限、技术偏差和技术错误,也会有主观上的价值偏好、权重衡量和目标选择。即便其中有些选择是出于好意,仍会“有许多模型把人类的偏见、误解和偏爱编入了软件系统,而这些系统正日益在更大程度上操控着我们的生活”(62)。何况,还有相当部分是为了谋取不当利益的嵌入式偏好。因此,大数据杀熟、算法黑箱、算法歧视、数据鸿沟、信息茧房、诱导沉迷、数字人权等问题便凸显出来。而更为深层的严峻问题是,“用算法来处理人类特有的一些活动,有可能使这些活动丧失最根本的人性”,那么,“如何在算法时代保持人性?”(63)为克服上述风险和问题,框定技术发展的价值方向,塑造数智人文价值(64),就成为数字时代必须解决的重大问题。2021年9月25日,国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》即开宗明义,“本规范旨在将伦理道德融入人工智能全生命周期,促进公平、公正、和谐、安全,避免偏见、歧视、隐私和信息泄露等问题”,同时,还要求正确行权用权,提倡善意使用,避免误用滥用,禁止违规恶用。(65)同年11月24日,联合国教科文组织(UNESCO)则通过了关于人工智能伦理的首份全球协议《人工智能伦理问题建议书》,在价值观、伦理原则和政策指导上提供了规范指南,并主张发展与治理并行、全流程协同共治。(66)这些无疑都是塑造“人本主义”法治价值的重要努力和举措,更需要创新法学理论,进行价值重塑和确立必要的价值框架,进而找回人类的“意义世界”和“价值空间”,实现人与技术的“和解”。(67)

(二)回应《全球数字契约》倡议

当今信息社会呈现的既是数字经济,也是分享经济。即尽管占支配地位的仍是自由市场和私有化原则,但其“核心标准层面发挥作用的则是共享协议”(68),并实现了对传统“中心化”商业模式的颠覆性创新,使得“劳动者—平台—顾客”的共享模式逐渐成为主流。(69)与此同时,“赢者通吃”和“无用”大众的发展态势也随之而来,数字鸿沟、信息茧房、算法歧视、算法控制、张力结构等倾向也日益凸显,这些共享经济中的“非共享”状况便成为必须予以正视的问题。为此,2024年9月22日,联合国未来峰会通过了《全球数字契约》,它旨在建立一个包容性的全球框架,这对于多方利益攸关方采取必要行动克服数字、数据和创新鸿沟至关重要。预计该契约将概述各项原则、目标和行动,以推动为所有人创造一个开放、自由、安全和以人为本的数字未来,该数字未来以普遍人权为基础并能实现可持续发展目标。(70)进而要求各国的数字发展以人类尊严为核心,以保障人权作为数字技术的核心,使人权成为开放、安全、可靠的数字未来的基础。联合国秘书长安东尼奥·古特雷斯也强调:“今天,一个新的技术时代正向我们走来——这个时代将给全球和平、稳定和发展注入巨大机遇,但也将带来新的风险。我们必须提出一个关于未来的根本性问题:我们将为我们的孩子留下一个怎样的世界?是只留下一套技术,仅让社会中最富有、享有网络联通的人群受益,却让世界上其他的人无法联网并落得更远?还是留给后代一个尊重人权、促进和平、改善包括最弱势群体在内所有人生活的数字世界?”(71)这意味着,在数字空间中,将人权和人的自主性置于一切事务的中心,至关重要。

在我国,党的十九大就确定了“共建共治共享”的发展战略,党的二十大进一步提出“中国式现代化”的宏伟蓝图,党的二十届三中全会又通过了《中共中央关于进一步全面深化改革 推进中国式现代化的决定》,要求“推动人的全面发展、全体人民共同富裕取得更为明显的实质性进展”,“做到改革为了人民、改革依靠人民、改革成果由人民共享”。这就需要把共享发展理念融入信息社会的法律理念中来,加快发展新质生产力,并通过合理的制度设计将共享经济和新质生产力的发展成果转化为社会成员的共享机会和公平权利。

基于此,我们就应立足《中国关于全球数字治理有关问题的立场(就制定“全球数字契约”向联合国提交的意见)》,积极回应《全球数字契约》的各项倡议。具言之,一方面,贯彻“以人为本”“共建共治共享”治理原则,抑制数字鸿沟、信息茧房、算法歧视、数字控制等不良倾向,通过建立监督控制和包容共治的数字民主机制,抑制对价值观的数字塑造、对主体自由的双重威胁、算法决策的“强制”效应等数字治理风险,确保科技向善、数字正义和保护数字人权。另一方面,针对公私混合、主体多元化、规则多元化、自由与控制同步增长的治理演进方向,积极探索“众创立法”、软硬共治、多元混合的治理机制;(72)努力创新司法、行政和平台治理的多元纠纷解决机制,化解各类数字治理风险,保障数字权利和数字人权,从而构建“共建共治共享”的数字治理秩序,推进数字法治建设。

(三)构建人工智能的伦理约束机制

数字时代的显著特征是数据说话、算法主导,它带来的是一个便捷舒适的智能社会。然而,算法并不会自生道德观,也不会进行理性的自我约束。它是为达到特定目的而人为编写的代码,因此,必然会带有某种局限和风险,而价值偏好则是“算法所固有的”(73)。为此,就需要将其纳入法治轨道。然而,法律规制毕竟是一个底线的保障,而且,在快速迭代的技术发展和应用面前,必然会带有明显的迟滞性,因此,只能采取包容审慎、保留适度“弹性”的立法策略。这样,适时打造人工智能应用的伦理框架,则能填补规制空间,发挥全方位、及时性的规制效果,从而抑制算法歧视、算法控制、算法误用和算法滥用,促进科技向善和友好人工智能,这也是当下的一种时代要求和全球趋势。2017年美国计算机协会(USACM)发布了算法透明和可责性七项原则,2019年欧盟委员会人工智能高级专家组(AI HLEG)发布了《可信赖AI伦理指南》,2021年11月联合国教科文组织在第41届大会上又通过了全球首份《人工智能伦理问题建议书》。与此同时,相关立法也不断加速,如纽约《关于政府机构使用自动化决策系统的当地法》(2017)、《加州自动化决策系统问责法》(2020)、欧盟《通用数据保护条例》(2016)等。我国也先后颁布了《新一代人工智能伦理规范》(2021)、《关于加强科技伦理治理的意见》(2022)、《个人信息保护法》(2021)、《互联网信息服务算法推荐管理规定》(2021)、《生成式人工智能服务管理暂行办法》(2023)等政策文件、法律和规章,从此开启了规范发展、价值指引的人工智能治理新时期。此时,亟须构建与人工智能法律规制相配套的系统伦理框架,它不再仅仅体现工商社会的分配性正义,而是更多表达新时代的共享性正义,从而为人工智能治理确立伦理约束机制和数字正义尺度。

(四)探索“中国式”的数字法治

网络化、数字化、智能化的融合发展深刻地改变了人类的生活状态和生存方式,全世界都在面临着前所未有的、具有颠覆意义的数字化转型,这也使得“中国式现代化”的建设任务变得日益艰巨和复杂。为此,党和国家先后在2013年和2015年做出了“法治中国”“数字中国”的战略部署,2023年中共中央、国务院又印发了《数字中国建设整体布局规划》,提出了数字中国建设的整体框架。基于此,在既有法治国家建设不断加速的同时,数字法治又被纳入了国家治理体系和治理能力现代化的进程,为“中国式”数字法治建设奠定了坚实基础。

近年来,我国的数字法治政府、数字检察、数字法院、数字纪检监察等方面的制度机制不断推陈出新,取得了明显成效,特别是确立了“3+3”互联网审理模式(杭州、北京、广州互联网法院,成都、长春、苏州互联网法庭),并通过数字技术应用而形成了平台运行机制、数据业务机制、算法决策机制、数字论证机制,逐渐探索出“中国式”的数字法治之路,也为全球数字化、法治化进程贡献了“中国方案”,推动了“数字文明共同体”变革与发展。

结语

当今信息革命产生了折叠时空的革命性后果:一是突破了人类活动的物理时空,创造出前所未有的虚拟世界,从而击碎了物理空间的构造要素和运行节奏,使其呈现出一种破碎化、流动化、圈层化的全新样态。从互联网、物联网、车联网再到身联网,从网络空间、数字孪生再到元宇宙,彻底改变了自然感知、天然传递的生活方式,塑造了虚实同构的日常交往和生活状态,形成了一种无缝连接、信息交互的新型数字生活环境。二是突破了人类的生物属性,创造出若即若离的数字身份,人们凭借其数字身份来获得数字空间中的主体资格、行动能力和权益保护。这样,就形成了“生物—数字”的复合人性和数字人格,人类由此成为“现实与数字的两栖物种”。(74)三是突破了传统经验的工具角色,创造出能动智慧的人工智能体,它们不再是“死”的生产工具,而是“活”的工作“伙伴”。无论是智能合约、智能制造、无人驾驶、智慧医疗,还是自动化行政、智能裁判、智慧执行、司法区块链,人工智能体都能通过算法决策来为人类提供辅助,从而形成人机交互的协同场景。这样,分布式、破碎化、扁平化就成为数字社会秩序的显著特征,推动着生产要素、生产关系、生产方式、生活方式的颠覆性变革,形成了物理世界(世界1)、精神世界(世界2)和数字世界(世界3)的基本格局。(75)于是,就形成了新型的数字社会运行逻辑,因此,数字治理就不能简单套用工商社会治理的制度体系和程序机制,而应按照数字社会的生活方式和行为规律来设定规则体系,构建法治机制,防范法治风险,实现数字正义,从而塑造数字法治秩序。

注释:

①戴志勇:《“未来一定有多个平行的你”——王飞跃谈正来临的第五次工业革命》,南方周末网,http://gffgg606ebfbfafa34c3ahkkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/contents/111120,2024年9月25日访问。

②尤夫娜·霍夫施泰特:《大数据之眼——无所不知的数字幽灵》,陈巍译,浙江文艺出版社2018年版,第194页。

③克里斯托弗·斯坦纳:《算法帝国》,李筱莹译,人民邮电出版社2017年版,第197页。

④段伟文:《信息文明的伦理基础》,上海人民出版社2020年版,第8页。

⑤王天一:《人工智能革命——历史、当下与未来》,北京时代华文书局2017年版,第192—193页。

⑥约翰·马尔科夫:《人工智能简史》,郭雪译,浙江人民出版社2017年版,“中文版序”,第VII页。

⑦乔治·扎卡达基斯:《人类的终极命运——从旧石器时代到人工智能的未来》,陈朝译,中信出版社2017年版,第298—299页。

⑧安德鲁·基恩:《网民的狂欢——关于互联网弊端的反思》,丁德良译,南海出版公司2010年版,第184页。

⑨参见皮埃罗·斯加鲁菲:《智能的本质——人工智能与机器人领域的64个大问题》,任莉、张建宇译,人民邮电出版社2017年版,第169页。

⑩罗素、诺维格:《人工智能—— 一种现代的方法》,殷建平等译,清华大学出版社2013年版,第878页。

(11)克劳斯·施瓦布:《第四次工业革命——转型的力量》,李菁译,中信出版社2016年版,第11页。

(12)克里斯多夫·库克里克:《微粒社会——数字化时代的社会模式》,黄昆、夏柯译,中信出版社2018年版,“前言”,第Ⅶ-Ⅷ页。

(13)克劳斯·施瓦布:《第四次工业革命——转型的力量》,李菁译,中信出版社2016年版,第96页。

(14)克里斯多夫·库克里克:《微粒社会——数字化时代的社会模式》,黄昆、夏柯译,中信出版社2018年版,“前言”,第Ⅵ-Ⅶ页。

(15)詹姆斯·柯兰等:《互联网的误读》,何道宽译,中国人民大学出版社2014年版,第206页。

(16)李智勇:《终极复制——人工智能将如何推动社会巨变》,机械工业出版社2016年版,第118页。

(17)卡鲁姆·蔡斯:《经济奇点——人工智能时代,我们将如何谋生?》,任小红译,机械工业出版社2017年版,第231—232页。

(18)凤凰网:《〈人类简史〉作者最新演讲:人类将会失去这些力量》,http://gffgg70e72da8ad6e4dbfhkkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/a/20170707/51393577_0.shtml,2024年1月29日访问。

(19)安德鲁·查德威克:《互联网政治学:国家、公民与新传播技术》,任孟山译,华夏出版社2010年版,第42页。

(20)马尔克·杜甘、克里斯托夫·拉贝:《赤裸裸的人——大数据、隐私与窥视》,杜燕译,上海科学技术出版社2017年版,第147页。

(21)马尔克·杜甘、克里斯托夫·拉贝:《赤裸裸的人——大数据、隐私与窥视》,杜燕译,上海科学技术出版社2017年版,第144页。

(22)参见尤瓦尔·赫拉利:《未来简史》,林俊宏译,电子工业出版社2017年版,第294、315页。

(23)克里斯多夫·库克里克:《微粒社会——数字化时代的社会模式》,黄昆、夏柯译,中信出版社2018年版,“前言”,第Ⅻ页。

(24)参见卢恰诺·弗洛里迪:《信息伦理学》,薛平译,上海译文出版社2018年版,第426页。

(25)劳伦斯·莱斯格:《代码2.0:网络空间中的法律》,李旭、沈伟伟译,清华大学出版社2009年版,第89页。

(26)曹建峰:《人工智能:机器歧视及应对之策》,《信息安全与通信保密》2016年第12期。

(27)约斯·德·穆尔:《赛博空间的奥德赛——走向虚拟本体论与人类学》,麦永雄译,广西师范大学出版社2007年版,第16页。

(28)弥尔顿·L.穆勒:《网络与国家——互联网治理的全球政治学》,周程等译,上海交通大学出版社2015年版,第6页。

(29)曹建峰:《人工智能:道德外包与“黑箱”中的算法歧视》,http://gffgg14f6b02156ae4117hkkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/4798,2024年1月30日访问。

(30)胡文娟:《大数据下的人权保护》,《WTO经济导刊》2018年第2期。

(31)卢克·多梅尔:《算法时代:新经济的新引擎》,胡小锐、钟毅译,中信出版社2016年版,第126、127、138页。

(32)欧洲经济和社会委员会:《大数据伦理——在欧盟政策背景下,实现大数据的经济利益与道德伦理之间的综合平衡》,中国大数据产业观察网,http://gffgg705eee2dceaa4d72hkkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/BigData/2017-09/27/content_5607209.htm,2024年1月25日访问。

(33)欧洲经济和社会委员会:《大数据伦理——在欧盟政策背景下,实现大数据的经济利益与道德伦理之间的综合平衡》,中国大数据产业观察网,http://gffgg705eee2dceaa4d72hkkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/BigData/2017-09/27/content_5607209.htm,2024年1月25日访问。

(34)互联网数据资讯中心网:《大数据时代喜忧参半,数据发展正面临转折点》,http://gffgg24ad889af48c43c8hkkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/archives/449373.html,2018年1月25日访问。

(35)Robert C.Martin:《代码整洁之道——程序员的职业素养》,余晟、章显洲译,人民邮电出版社2016年版,第18页。

(36)劳伦斯·莱斯格:《代码2.0:网络空间中的法律》,李旭、沈伟伟译,清华大学出版社2009年版,第6页。

(37)詹姆斯·柯兰等:《互联网的误读》,何道宽译,中国人民大学出版社2014年版,第122页。

(38)比约恩·布劳卿等:《智能数据:如何挖掘高价值数据》,王盛男译,中信出版社2017年版,第8页。

(39)卢恰诺·弗洛里迪:《信息伦理学》,薛平译,上海译文出版社2018年版,第23页。

(40)腾讯网:《算法操控大选,数据左右美国》,http://gffggcf452745fdb54782skkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/rain/a/20201015a025hs00,2024年9月28日访问。

(41)搜狐网:《新型政治形态革命,用网络操控你有多简单?》,http://gffgg6ccc1672349b409askkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/a/300329750_488672,2024年9月26日访问。

(42)卢恰诺,弗洛里迪:《在线生活宣言——超连接时代的人类》,成素梅等译,上海译文出版社2018年版,第307页。

(43)伊莱·帕里泽:《过滤泡——互联网对我们的隐秘操纵》,方师师、杨媛译,中国人民大学出版社2020年版,第8—9页。

(44)参见维克托·迈尔-舍恩伯格、肯尼斯·库克耶:《大数据时代:生活、工作与思维的大变革》,盛杨燕、周涛译,浙江人民出版社2013年版,第208页。

(45)参见约翰·马尔科夫:《人工智能简史》,郭雪译,浙江人民出版社2017年版,“前言”,第XIV页。

(46)刘新年等:《大数据时代下,如何保护隐私权》,《检察日报》2013年8月3日,第5版。

(47)欧洲经济和社会委员会:《大数据伦理——在欧盟政策背景下,实现大数据的经济利益与道德伦理之间的综合平衡》,中国大数据产业观察网,http://gffgg705eee2dceaa4d72hkkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/BigData/2017-09/27/content_5607209.htm,2024年1月25日访问。

(48)约翰·帕克:《全民监控——大数据时代的安全与隐私困境》,关立深译,金城出版社2015年版,第3页。

(49)徐恪、李沁:《算法统治世界——智能经济的隐形秩序》,清华大学出版社2017年版,“前言”,第18页。

(50)尤瓦尔·赫拉利:《未来简史》,林俊宏译,电子工业出版社2017年版,第358页。

(51)弗兰克·帕斯奎尔:《黑箱社会——控制金钱和信息的数据法则》,赵亚男译,电子工业出版社2015年版,第294页。

(52)詹姆斯·柯兰等:《互联网的误读》,何道宽译,中国人民大学出版社2014年版,第206页。

(53)段哲哲:《控制算法官僚:困境与路径》,《电子政务》2021年第12期。

(54)皮埃罗·斯加鲁菲:《智能的本质——人工智能与机器人领域的64个大问题》,任莉等译,人民邮电出版社2017年版,第169页。

(55)卢克·多梅尔:《算法时代:新经济的新引擎》,胡小锐、钟毅译,中信出版社2016年版,第140页。

(56)卢克·多梅尔:《算法时代:新经济的新引擎》,胡小锐、钟毅译,中信出版社2016年版,第136页。

(57)徐恪、李沁:《算法统治世界——智能经济的隐形秩序》,清华大学出版社2017年版,第339页。

(58)尤瓦尔·赫拉利:《未来简史》,林俊宏译,电子工业出版社2017年版,第357页。

(59)安德鲁·芬伯格:《技术批判理论》,韩连庆等译,北京大学出版社2005年版,第1页。

(60)参见诺伯特·维纳:《控制论》,王文浩译,商务印书馆2020年版,第51页。

(61)段伟文:《信息文明的伦理基础》,上海人民出版社2020年版,第1页。

(62)凯西·奥尼尔:《算法霸权——数学杀伤性武器的威胁》,马青玲译,中信出版社2018年版,“前言”,第Ⅴ页。

(63)卢克·多梅尔:《算法时代:新经济的新引擎》,胡小锐、钟毅译,中信出版社2016年版,第223页。

(64)这里并不是指用计算手段来研究社会科学意义上的“数智人文”(Digital-Intelligent Humanities,DIH),而是指数智发展应该具有或者承载的人文价值。

(65)参见科技部官网:《〈新一代人工智能伦理规范〉发布》,http://gffggbdf5b5dd63a74693hkkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/kjbgz/202109/t20210926_177063.html,2024年1月26日访问。

(66)人工智能的价值观主要包括:尊重、保护和促进人权、基本自由及人的尊严;保护环境和生态系统的蓬勃发展;确保多样性和包容性;在和平、公正与互联的社会中共生。伦理原则主要包括:相称性和不损害、保障安全、公平和非歧视、可持续性、隐私权和数据保护、人类监督和决定、透明度和可解释性、责任与问责、技术认知和素养、多利益攸关方协同治理等。政策指导则涉及伦理影响评估、伦理治理和管理、数据政策、发展与国际合作、环境和生态系统、性别、文化、教育和研究、传播和信息、经济和劳动、健康和社会福祉、监测与评估共12个细分领域。参见澎湃网:《首份人工智能伦理全球协议的两项关键共识》,http://gffggc783ceb421054c1cskkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/newsDetail_forward_15783613,2024年1月26日访问。

(67)参见徐飞:《新文科建设:“新”从何来,通往何方》,《光明日报》2021年3月20日,第10版。

(68)弥尔顿·L.穆勒:《网络与国家——互联网治理的全球政治学》,周程等译,上海交通大学出版社2015年版,第325页。

(69)参见蔡雄山:《“互联网+”时代,如何规制分享经济》,载中国信息通信研究院互联网法律研究中心、腾讯研究院法律研究中心编:《网络空间法治化的全球视野与中国实践》,法律出版社2016年版,第615页。

(70)参见联合国·未来峰会官网:《全球数字契约》,http://gffgg73aae25f3c4b4821skkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/zh/node/219796,2024年10月5日访问。

(71)联合国秘书长技术事务特使办公室官网:《数字合作路线图》,http://gffgg73aae25f3c4b4821skkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/techenvoy/zh/content/roadmap-digital-cooperation,2024年10月5日访问。

(72)参见马长山:《智慧社会建设中的“众创”式制度变革》,《中国社会科学》2019年第4期。

(73)凯伦·杨、马丁·洛奇编:《驯服算法——数字歧视与算法规制》,林少伟、唐林垚译,上海人民出版社2020年版,第232页。

(74)参见腾讯网:《清华大学:2021元宇宙发展研究报告》,http://gffggcef02380661c474askkc00cfqw9xf6n06.fgzb.hbpu.wttczd-86544418598.com/page/OifC58GczUZpedUjNt5B09-g0,2024年10月2日访问。

(75)参见董春雨、薛永红:《大数据哲学——从机器崛起到认识方法的变革》,中国社会科学出版社2021年版,第37页。

    进入专题: 数字治理   数字正义   数字法治  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/171452.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统