黄各:人工智能道德增强:能动资质、规范立场与应用前景

选择字号:   本文共阅读 70 次 更新时间:2022-06-27 16:15:03

进入专题: 道德增强   人工智能   规范性   关系型辅助  

黄各  

  

   【摘要】信息技术时代的来临使人类道德增强的手段变得越发丰富,以人工智能为依托的道德增强方案旨在构造一个伦理智能系统,帮助人类作出更为合理的道德决策。但是,此系统在能动资质、行动动机等方面却受到一定质疑。在对其主体资格进行认定后,通过对直接伦理决策机器、人工道德建议者以及关系—辅助型增强系统的规范立场的讨论,明晰其在何种意义上能够指导人类道德实践。在此基础上,对关系—辅助型增强系统的应用前景赋予期待,并对其如何与人类共处进行了分析。

   【关键词】道德增强   人工智能   规范性   关系型辅助

  

   道德增强(moral enhancement)技术是近年来伦理学领域讨论的热点。因为它主张可以通过特定的技术手段(比如生物干预、基因改造、颅刺激)来使人类在道德判断中获取稳定的性情,保持客观中立,并以此来影响行动者的选择和偏好,从而获得道德水平的提升。但这一建立在生物工程学基础上的技术,因涉及对人类基因、细胞的改造受到众多的反对。近年来,随着大数据、深度学习、仿生技术等领域的快速发展和交叉融合,人工智能已经在社会诸多领域得到了充分的发展。萨沃斯库(Julian Savulescu)等学者基于此提出了“人工智能道德增强”(artificial intelligence moral enhancement,以下简称AI增强)的新方案。该方案能够避免对人体结构的直接改造,而是根据事先设定的标准编写一套提供道德建议的程序,该程序能够搜索到足够多的信息,并结合程序中设定的观点对人类的道德行为进行指导,最终创建出一套人工智能系统。它一方面具有非常强大的运算能力和知识背景,另一方面拥有稳定且可靠的情绪,可以为人们提供超出自身认识、情感等范围内的信息,进而帮助其进行更为合理的道德判断。

   为了更为清晰地认识人工智能系统的作用机制和原理,以及它在何种条件下能更好地帮助人类增强道德,本文拟从如下三个方面来对此方案进行探讨:第一,人工智能(artificial intelligence,以下简称AI)系统是否具备道德能动性,作为道德行动主体的我们应该如何对待它的存在;第二,AI增强所提供的深度人机交互模式的道德规范性依据是什么,我们又因何判定其是合理的;第三,在综合各方面因素的考量后,提出一种关系—辅助型的AI增强模式,并结合其实际运作方式,对其应用前景进行评估和展望。

   一、对人工智能道德能动性的质疑与回应

   在道德增强的语境中,AI更多是以“普适计算”(ubiquitous computing)或“环境智能”(ambient intelligence)系统的形式出现的。它是一个从多个传感器和数据库搜索信息的系统,并根据其对系统用户的功能相关性进行处理。AI系统的出现已经从多个方面改善了人们的生活质量,它以更为强大的数据搜索能力、更为可靠的判断能力以及更为稳定的情绪能力带给人们帮助。AI增强方案的支持者认为,这一技术的应用前景是乐观的,因为无论人类作出何种努力,其通过自身教育使道德能力增强的进程是非常缓慢的。现在有了能够快速提升道德的工具和技术,且不会对人体造成损害,我们没有理由置之不理。因而,这一方案的重点是要创造出具有一定道德评判、建议和执行能力的智能机器,按照算法系统提供的方案,依照某种运行程序来帮助人类进行道德决策。不过,这项方案所面临的一个首要挑战是:协助人类进行道德决策的AI系统是否具备一定的道德行动能力,从而能够担负起道德实践判断的角色。很多学者对此持有怀疑态度,他们从如下三个方面对智能系统的道德能动性进行了质疑。

   首先,是对其理解能力的质疑。在他们看来,AI需要倚靠计算机算法系统,它只有处理信息而没有理解信息的能力。塞尔(John Searle)曾证明AI只是一堆程序,它根本无法“理解”自己在做什么。彭罗斯(Roger Penrose)也指出:“只有在某些自上而下(或主要是自上而下)组织的情况下,计算机才表现出对人类的显著优势……而在自下而上(人工神经网络)的组织中,计算机只能在少数有限的情况下达到普通训练有素的人类的水平。”因而它可能只有分析判断而没有综合判断的能力,需要依靠提前指定的参数来模仿。在这些学者眼中,AI不过是数据和程序的简单堆砌,是一个没有理念和心灵的低级造物。人类的理解能力、分析能力、自主意识能力等都被认为是一种难以探究、难以模仿、更难以企及的神秘事物。因此,基于算法的AI机器无法像人类一样成为真正的道德行动者。

   其次,是对其情感、心理和共情(sympathy)能力的质疑。在道德情感主义者眼中,人类的情感是道德判断中最为重要的组成部分。在他们看来,评判道德善恶的一个重要标准是人类“爱恨苦乐”的感觉。如果缺少了人类情感的特质,道德所必需的交互主体性和敏感性将不会存在。正如雷依(Georges Rey)所言:“只有拥有与我们(人类)的荷尔蒙和神经调节的情感相关的化学特性的实体才能完全有资格成为一个人……即使它们(机器)确实有自己的一种情感状态,仍然需要表明的是,这些情感是不是一种与道德相关的类型。”此外,斯密(Adam Smith)和休谟(David Hume)所提出的共情能力也是道德能动性的重要一环,其意在构建不偏不倚的旁观者来指导道德行动。但由于AI系统没有类似于人的心理结构,很多质疑者认为,它不具备相应的情感和共情能力,因此道德行动能力有所欠缺。

   最后,是对其自律、意志和责任能力的质疑。道德理性主义者认为,与道德能动性关联密切的是人类的自律能力。按照通常的理解,如果行动者的自由意志(意愿)引起了他的行动,那么他的行动就是自律的;而道德自律又与道德法则有强烈的关联,能够促使人们遵从自我订立的法则并积极履行相应的道德责任。但是,在很多质疑者看来,AI系统并不具备此种自我立法的能力,也没有一种“作恶的自由”或“可供取舍的可能性”的自由意志,更不用说在此基础上所形成的责任意识能力。

   但笔者认为,以上诸种质疑并不能从根本上否认AI系统的道德能动性。其一,当代科技的迅猛发展已经让AI可以从符号主义、联结主义出发,基于物理符号系统的计算机程序模拟人类的思维过程。从本质上说:“认知是信息处理,且信息处理是可计算的……符号主义基于自上而下的道路,物理符号系统致力于把客观世界做成形式模型,而联结主义如包括神经网络、深度学习等基于自下而上的道路,神经网络致力于把大脑做成形式模型。”前文所提到的塞尔等人不仅低估了AI运用算法时所需能力的复杂程度,还忽视了其通过深度学习而迅速获得自主迭代升级的功能。AlphaGo战胜人类棋手的事例其实已经表明了AI具备深层次的逻辑抽象和综合判断能力。丹尼特(Daniel Dennett)对此就指出:“在图灵之前,我们总以为人类所有的能力都来自于他们能理解,理解是所有智力的神秘源泉,现在我们才认识到,理解本身是一种效果,它从成堆的能力中冒出来,是各种能力层层叠加生成的。”

   其二,人们虽然可以从苦乐等感觉经验中建构起自身的道德标准,并以此来规范自身、形成准则,但是这并不表明它们就是评判道德能动性的先天条件。斯密也承认,情感的作用是让行动具有一定的合宜性。现代道德哲学的研究也越来越倚重于以合理性为基础的规范性和实践理由等概念,并进一步发展出“理由基础主义”(reasons fundamentalism)等侧重理性认知基础的学说。其意在通过强调理由是一个由事实、行动者、情境和态度构成的四元关系,来论证道德评判的依据在于行动理由的客观规范性。因此,AI系统可能确实无法拥有人类独特的情感体验,但其在对四元关系的把控中相较于人类更为稳定和客观,也能依照更为普遍的要求来制定道德准则。

   其三,将道德能动性与意志自由建立一种强关联亦是值得进一步讨论的。在利用生物工程进行道德增强的案例中,很多学者亦对此论题展开了争论。其中,道格拉斯反对哈里斯的一个论断就足以说明自由意志对取得道德能动性资格而言是不充分的。在他看来:“在许多情况下,为了防止作恶,牺牲一些作恶的自由似乎更为可取……同样的,在非认知性道德增强的情况下,不道德的自由所损失的价值被不道德行为或者动机所减少的价值抵消了。”萨沃斯库等人通过一个“上帝—机器”(god machine)的思想实验也认为,可供选择的自由并非道德责任的首要条件,它也可能“通过控制道德主体,使这个人屈从于另一个人的意志,并取消不道德行为的自由”。正如相容论者所论证的那样:“自由不是指免于因果律或没有任何限制,相反,它以秩序为基础,并与因果法则相容。”因而,自由意志并不能成为评判道德能动性的先决条件。

   其四,自律与自我立法(self-legislation)观念的实质是通过定言命令式的程序来使行动者履行责任,但其却有很高的执行标准与要求:“在人们的目的和行动的选择中,自律必须被视为超越于我们偏好控制的条件……因而,它是一个优先原则的标准,只能在经验世界中依靠先验自由来实现。”这种能力连一般意义上的理性存在者都难以企及,因此完全基于自律能力去构建AI系统是不现实的。有学者对此指出,只要AI系统能够做到以下方面,就能够被视为是自律的道德行动者:“机器系统可以不受任何其他行动者或者用户的直接控制……如果机器系统的程序和环境的复杂互动能够导致它以道德上有害或有益的方式行动,而且这些行动似乎是有意的和经过计算的……让人们能够通过假设机器系统对其他道德主体负有责任,并能对之赋予信念。”

   摩尔(James Moor)等人还据此对AI系统进行了层级划分:“有伦理影响的行动者、隐式的伦理行动者、显式的伦理行动者以及完全伦理行动者。”在此基础上,很多针对AI系统道德能动性的质疑针对的是完全伦理行动者,其余几种伦理行动类型依然可以成为AI系统追求的目标。因此,AI是否具有道德能动性的争论焦点其实并不在于它是否必须要像人类那样拥有理解力、情感、自律和意志自由,而在于其是否能够对复杂情况进行判断,并通过调整和使用规则进行合理的道德决策。现有的研究表明:AI已经可以通过“动机—观察—推理—假设—验证”在复杂情形中自主地寻求合理性的解决方案。因此,一些学者提倡用一种意向立场来理解和对待AI的能动性,把它当作理性智能体来对待:“这种立场也是人类理解自身和其他高等动物的方式,它也就自然地赋予了人工智能一种‘类人的’而非‘拟人的’属性以及真正的主体资格。”

   二、人工智能的道德规范性审视

   在承认AI具备一定程度的道德能动性以后,要使其帮助人类提升道德,还需解决一个关键问题:它应该以什么样的形式,按照何种原则来帮助人们进行道德判断和决策?这涉及道德规范性问题的讨论,按照一种普遍的理解,规范性是对“人们基于什么样的理由行动才是道德的”这一问题的回答。目前学界对此主题有很多争论,其中最常用的一种方法是借助元伦理学中的人称问题进行探讨。

第一人称立场持有者认为,道德规范性必须在行动者自身的意志中寻求,行动者需要自己制定道德法则。如果一个行动者不能对自己的行为感同身受,并根据其来制定相应的标准,那么道德法则对他来说就是不起作用的。此理论对道德能动性的要求很高,行动者至少应该具备道德慎思(moral deliberation)的能力,凭此能力找到合理行动的理由,并根据这些理由选择适当的行动。相较而言,不把自己或他人的实践目的直接与行动者自身相关联的是第三人称立场。这种立场需要把行动者看作客观或中立的。在这种模式中,行动者总是被置于一个中立的位置,其行动理由都抽离于主体,(点击此处阅读下一页)

    进入专题: 道德增强   人工智能   规范性   关系型辅助  

本文责编:admin
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 哲学 > 科学哲学
本文链接:http://www.aisixiang.com/data/134943.html

0 推荐

在方框中输入电子邮件地址,多个邮件之间用半角逗号(,)分隔。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2022 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统