徐英瑾:如何设计具有自主意图的人工智能体

———项基于安斯康“意图”哲学的跨学科探索
选择字号:   本文共阅读 192 次 更新时间:2019-05-15 00:12:56

进入专题: 人工智能  

徐英瑾  

   内容提要:具有自主意图、只依赖小数据运作的通用人工智能系统的出现,并不会像有些人所预估的那样导致“机器奴役人类”的局面出现,因为此类技术对于小数据的容忍可以大大增加此类技术的潜在用户的数量,并使得体现不同用户价值观的通用人工智能系统能够大量出现。这样一来,具有不同意图的通用人工智能系统彼此之间的对冲效应,最终会使得任何一种具有特定意图的通用人工智能系统都无法占据主宰地位。相反,由于作为专用人工智能技术代表的深度学习技术的运用在原则上就需要大量数据的喂入,其对于民众隐私权的侵犯就成为一种难以被全面遏制的常态,因此,此类技术的发展在原则上就会加强一部分技术权贵对于大多数民众的统治地位。不过,要在通用人工智能系统里实现对于意图的工程学建模,就需要我们在哲学层面上首先厘清关于意图的种种哲学迷思。在这个问题上,美国女哲学家安斯康的意图理论是一个比较好的讨论起点。具体而言,安斯康关于“意图是在欲望驱使下做某事的理由”的观点,是可以在通用人工智能的语境中被实现的,但是她关于信念与意图之二元对立的观点,却在不少地方有失偏颇。而“非公理化推理系统”(纳思系统),则将为吸纳安斯康意图论的合理部分提供相应的工程学手段。

   Whether Artificial Intelligence(AI) will enslave human beings is very relevant to the meaning of "AI" itself.If "AI" means "Artificial General Intelligence"(AGI) and the AGI system in question can work well by tolerating a small size of inputs,then the potential number of the users of this technology will be significantly increased.And if these AGI systems can have their habits of producing intentions in accordance with different users' values,then varieties of AGI systems imbued with different values will make it tough for any single type of machine to dominate the society.Hence,machines cannot enslave human-beings if machines are AGI systems in this sense.In contrast,if "AI" only means deep learning systems which cannot function well without exploiting large quantity of data,then the issue on how to protect the human privacy will always be salient,and in this sense,AGI systems with the capacities of having their own intentions is ethically superior to their deep learning counterparts.As to how to produce intentions in an AGI system,G.E.M.Anscombe's philosophy of intention may offer many inspirations,although some of her claims on the nature of intentions may be controversial.Pei Wang's Non-axiomatic Reasoning System(NARS) will offer a technical realization of the plausible part of Anscombe's theory of intention.

   关键词:通用人工智能/非公理化推理系统/纳思系统/深度学习/公众隐私/安斯康/artificial general intelligence(AGI)/non-axiomatic reasoning system/NARS/deep learning/public privacy/Anscombe

   标题注释:国家社会科学基金重大项目(15ZDB020),国家社会科学基金一般项目(13BZX023)。

  

   一、从“人工智能是否会奴役人类”谈起

  

   随着近几年以来人工智能技术在工程学层面上的不断进步,关于“人工智能是否会在未来统治人类”的担忧,也日渐被人提起。但在笔者看来,这个问题本身已经包含了诸多语言混乱。如果不预先对这些混乱加以厘清,我们将很难对这一问题作出严肃的应答。具体而言,该问题所涉及的第一重语言歧义即:这里所说的“人工智能”究竟是指专用人工智能(即只能用于特定工作目的的人工智能系统),还是通用人工智能(即能够像人类那样灵活从事各种工作的人工智能系统)?有人或许会说,抓住这一点歧义不放乃是小题大做,因为所谓通用人工智能技术,无非就是既有的专用人工智能技术的集成。但持此论者却没有意识到如下三个问题:

   (甲)就既有专业人工智能技术中发展最快的深度学习系统而言,此类系统的运作其实是需要大量的数据输入为其前提的。因此,深度学习系统并不具备根据少量数据进行有效推理的能力——换言之,它们缺乏“举一反三”的智能,尽管这种智能乃是任何一种理想的通用人工智能系统所不可或缺的。不得不提到的是,在“迁移学习”这一名目下,目前不少深度学习研究者都在研究如何将在一个深度学习网络中已经获得的网络权重分布“迁移”到一个新的网络中去。这姑且可以被视为某种最初步的“举一反三”。然而,这种意义上的迁移学习必须预设深度学习网络所从事的新任务与旧任务之间有足够的相似性,而无法模拟人类在非常不同的领域(如“孙子兵法”与商业活动)之间建立起类比推理关系的能力。

   (乙)现有的深度学习架构都是以特定任务为导向的,而这些任务导向所导致的系统功能区分,既不与人类大脑的自然分区相符合(譬如,我们人类的大脑显然没有一个分区是专门用于下围棋的,而专门用于下围棋的“阿尔法狗”系统的内部结构则是为下围棋量身定做的),也缺乏彼此转换与沟通的一般机制。因此,深度学习系统自身架构若非经历革命性的改造,其自身是缺乏进阶为通用人工智能系统的潜力的。

   (丙)目前真正从事通用人工智能研究的学术队伍,在全世界不过几百人,这与专业人工智能研究的庞大队伍相比,可谓九牛一毛①。

   有鉴于特定技术流派的发展速度往往与从事该技术流派研究的人数成正比关系,所以,除非有证据证明通用人工智能的研究队伍会立即得到迅速扩充,否则我们就很难相信:通用人工智能研究在不久的将来就会取代专用人工智能研究,迅速成为人工智能研究的主流。而这一点又从另一个侧面印证了专用人工智能与通用人工智能之间的差异性。

   除了上述差异性之外,“人工智能是否会在未来统治人类”?这个问题包含的另一重歧义便是:此问中作为宾语而出现的“人类”,究竟是指“智人”这个生物学概念所指涉的所有个体,还是某一类特定人群,如城市中产阶级或是贫民阶层?有人或许认为这样的提问依然是在小题大做,因为从字面上看来,该问题的提出者显然关心的是人类总体,其判断根据则如下:在该问题中作为主语出现的“人工智能”,显然与作为宾语的“人类”构成了排他性关系,因此,此主语本身应当不包含人类的任何一个成员,而此宾语也由此可以“独占”所有人类个体。不过,在笔者看来,上述问题是有漏洞的,因为“人工智能是否会在未来统治人类”一语的核心动词“统治”在正常情况下显然是需要一个人格化主体作为其主词的,而“人工智能”是否是一个人格化主体,则又取决于这个词组指涉的是专用人工智能,还是通用人工智能。假设它指涉的是专用人工智能(并因此不是一个人格化主体),那么“统治”这词显然就无法在字面上被解读,而只能被视为一个隐喻性表达。在这样的情况下,我们恐怕就不能认为“人工智能”本身与“人类”彼此构成了某种排他关系了,正如在“资本主义正在奴役人类”这句同样具有隐喻色彩的判断中,作为主语的“资本主义”与作为宾语的“人类”亦没有构成排他关系一样②。换言之,在这种情况下,我们就只能将“人工智能”视为一个与人类个体成员有相互交叉的复合概念——比如“掌握人工智能技术的一部分技术权贵与这些技术本身的结合体”——并由此将原来的问题改变为这样一个样子:“掌握人工智能技术的一部分人,会在未来奴役另外一部分人类吗?”

   经过对于上述两重语言歧义的澄清,我们原来的问题——“人工智能是否会奴役人类”——就会立即有四个变种,其中每一个变种,都由“专用人工智能—通用人工智能”与“所有人类一部分人类”这两个对子各自的构成因素两两组合构成:

   变种甲:人类技术权贵与专用人工智能技术(特别是深度学习技术)的结合,是否会导致另一部分人类受到奴役?

   变种乙:人类技术权贵与通用人工智能技术的结合,是否会导致另一部分人类受到奴役?

   变种丙:专用人工智能技术,是否可能奴役人类全体?

   变种丁:通用人工智能技术,是否可能奴役人类全体?

   在这四重可能性之中,首先需要被剔除的乃是对于“变种丙”的肯定回答,因为正如我们刚才所提到的,“奴役”这个主词所需要的乃是一个具有真正人格性的主体:这样的主体能够理解“奴役”的含义,并能够理解进行这种“奴役”的目的。而“变种丙”显然难以满足这样的形式要求,因为所谓的专用人工智能,在实质上与我们所使用的便携式计算器一样,都不会产生自己的欲望与意图,遑论“奴役人类”这样的高度抽象的意图。而在上述四个变种之中,最难以被剔除的乃是对于“变种甲”的肯定回答,因为“变种甲”对于作为人类个体的技术权贵的涉及,显然使得“奴役他人”这一意图的承载者得到了落实。同时,目下深度学习技术所预设的“顶级数据采集者”的功能定位,实际上也是为前述技术权贵量身定做的。此外,一部分人利用技术优势对另一部分人进行统治,也是人类历史上常见的现象,因此,如若未来真有人使用人工智能技术对另外一部分人类进行深入的奴役的话,也不会让我们感到过于吃惊。

   不过,从伦理角度看,我们依然希望技术的发展最终能够像马克思所预言的那样,带来全人类的解放,而不是加深人类的异化。因此,从这个角度看,“变种甲”所指涉的人类发展方向虽然会有很大的概率成为现实,却非吾人之所欲。在这种情况下,我们不妨再来看看,“变种乙”与“变种丁”是否带给我们更多的希望。

从表面上看,“变种乙”似乎比“变种甲”更不可欲,因为“变种乙”对于更强大的人工智能机制的诉求,及其对于这种机制与人类特定成员的结合的希冀,似乎会造就更为严重的技术异化。但更为仔细的考量,将使得我们发现“变种乙”所蕴含的某种对技术权贵不利(并因此对普罗大众有利)的因素。这就是通用人工智能技术自身。如果这种技术能够发展到让机器产生自身的意图的水准的话,那么我们就难以防止如下两个层面的事件发生了:机器对权贵要其执行的命令产生了怀疑(这种怀疑可能是基于对于相关命令的可实践性的顾虑,(点击此处阅读下一页)

    进入专题: 人工智能  

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 哲学 > 科学哲学
本文链接:http://www.aisixiang.com/data/116295.html
文章来源:《武汉大学学报:哲学社会科学版》第20186期

1 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2019 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号 京公网安备11010602120014号.
易康网