季卫东:从智能网络化社会的角度来谈治理和法律秩序的形成

——在法治与改革国际高端论坛(2020)上的讲话
选择字号:   本文共阅读 126 次 更新时间:2020-11-23 08:53:11

进入专题: 智能网络化社会    

季卫东 (进入专栏)  

   2020年11月14日,2020法治与改革高端论坛暨数字时代法学教育论坛在杭州举行。此次论坛由中国法学会指导,浙江大学主办,国家“2011计划”·司法文明协同创新中心、浙江大学光华法学院、浙江大学社会科学研究院共同承办。本次论坛主题为“法治体系建设和国家治理现代化”。论坛第二部分主题发言由浙江大学光华法学院常务副院长胡铭教授主持。

  

  

   各位专家:

   大家好!

   当今社会是一种智能网络化社会。不同的计算机系统互相作用时会产生一些复杂的后果,人工智能之间的目标也可能发生冲突,这些互动关系导致连锁反应,让我们难以预测。深度学习会加剧这种不确定性,使得因果关系往往很难说明,算法也很难解释,这样社会的风险性就会进一步增大,给治理带来诸多困难。所以今天我主要从智能网络化社会的角度来谈治理和法律秩序的形成等方面的问题。

   网络化社会的治理有一些非常重要的特色,比如横向的互动非常多,因此治理必须采取一种间接管制的方式。而人工智能把规则嵌入到操作系统中,充分利用这种横向的互动关系,使人们在规则执行时感觉不到强制。这是网络化社会,特别是智能网络化社会的一个非常重要的特点。

   再比如说价值排序和价值判断。如果通过社会网络分析的方法,把人工智能用于伦理规范之中,就可以看到智能网络社会的治理与现代法治的原理之间产生了非常明显的张力。人工智能的养料是数据,甚至在某种意义上,人工智能的本质就是数据。数据的规模越大,人工智能的功能就越大,预测的精度就越高。数据和人工智能是一种正比例关系,但是大规模的数据收集和对人分类进行的数据收集,都会产生一系列法律上的问题。

   另外,现代法治强调决策的透明化,强调问责。但是算法黑箱化使决策无法透明化,问责也难以进行。尤其是在司法人工智能普遍适用时,算法黑箱就会成为一个影响司法责任制的普遍性问题。它会导致我们过去所说的“莫须有”的问题重新出现。“莫须有”就是我不必给你理由。人工智能就有可能出现这种情况,因为算法黑箱化时,无法进行解释说明,只能说这是人工智能、是大数据给出来的决定。这种貌似客观、其实主观的决策以及无从问责的事态与我们对现代法治的要求有非常严重的对峙。

   再者,在人工智能时代,数字鸿沟会进一步扩大。掌握了人工智能技术和不掌握人工智能技术的人、能够用智能手机和不能用智能手机的人之间是有数字鸿沟的。国家治理体系和治理能力的现代化,最重要的是什么?大家都很熟悉梅因的从身份到契约的公式,但是刚才所讲的数字化时代、人工智能时代、大数据时代,好像又给了每个人一个身份,一个数字人格,被贴上某种特定的标签。尤其是遗传信息,它甚至会造成血统差别,如因为家族病史导致人可能永远不能就业、不能入保。

   最后,当马云讲“数据是21世纪的石油”的时候,他是有根据的。世界上的几大电商是非常庞大的交易平台,这种平台实际上使得市场竞争的原理发生了很大的变化。

   如果从现代法治的角度看,就会发现大数据社会有这么多的问题需要去防范。但是如果防范做得太厉害,人工智能就没办法发展。如果我们的虚拟空间被隐私权和个人信息分成一小块一小块的话,人工智能就没办法进一步发展。反过来看,从人工智能发展的角度来看制度设计,就需要推动制度创新。制度创新应该如何做?我们现在还在探索,我觉得很难给出一个确定的结论。但是有一点可以提供思考的线索:过去谈权力制衡,现在也许要谈技术制衡。其中非常重要的一点,是强调合的人工智能技术和强调分的区块链技术的制衡。区块链技术严格说来不仅是一种技术,还是一种协议,是关于共时的计算方式。通过两者之间的平衡,也许可以找到新的法律体制的基础。在这个意义上说,法律秩序、制度设计和方式创新是人工智能提出的挑战,也是要求。所以从智能网络社会的治理这个角度来看,法治体制的创新有无可能性,应如何发展,是一个非常重要的问题。

   后面我大致把前面讲的内容总结一下。

   人工智能是一种规则嵌入系统。过去中国遵守交通规则方面存在大问题,但现在有很大改善,其中一个非常重要的因素就是智能导航系统。AI系统会不断提示你,现在车速超标、前方有视频监控、此处犯规人数较多等等。这里的导航就是一种规则嵌入系统,通过技术手段确保规则执行。在这个意义上可以说,人工智能有可能导致一种硬法体系,强制力很强,如果不遵守就会有很多功能没办法实现。但是人工智能网络化社会的横向互动也很多,如果全部都是硬法方式,会导致很多问题缺乏弹性。所以在网络互动中,需要考虑特殊的语境,具体情况具体分析,用软法来补强这种情境思考。

   大数据的学习对人工智能发展非常重要,人工智能系统之间又存在着复杂的互动关系,这一切都导致算法难以理解、难以说明,甚至最后会导致算法独裁的流弊。那么,该怎么解决这些问题?

   首先,要警惕数据质量出现问题。现在的人工智能所使用的数据,严格来说并不是大数据,而是大量的数据,很多这些数据的规格并不统一。人工智能收取的这些数据存在着数据噪音,如果大量数据噪音存在,人工智能的质量就会受到很大影响,导致最终得到的结果不一定正确。

   再者,算法黑箱化之后,之前提到的“莫须有”的问题就会出现。它会妨碍对权力的问责,权力也会很容易推卸责任。理论上来说,法官需要独立作出判决,不能仅凭借大数据和人工智能推算的结果。如果法官作出的判决和人工智能、大数据推算的结果文本不一样,也需要说明理由。当一位法官审判的案件非常多时,没有充足的时间去琢磨一个问题,并且当问责机制存在时,法官会觉得不必给自己找麻烦,那么最终最简单的方式就是不断按照大数据与人工智能推算出的现有的模式去处理案件。审判就可能变得像一个以人工智能的方式进行的简易审判。如果我们要对权力进行问责,要保护议论的公开等,人工智能时代的法制就需要创新。它的关键有两点,第一是关于人工智能的人格认定和问责机制的问题,另一个是技术与技术之间的制衡,尤其是智能技术与区块技术的组合方式的最优化。

   以上就是我对智能网络化时代的社会治理和法治提出的一些初步看法,仅供大家参考,谢谢!

  

进入 季卫东 的专栏     进入专题: 智能网络化社会    

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 法学演讲
本文链接:http://www.aisixiang.com/data/123626.html

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2021 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统