黄治清:人工智能的伦理问题(一)

———从AI原则和亚马逊丑闻说起
选择字号:   本文共阅读 1650 次 更新时间:2019-08-02 08:57

进入专题: 人工智能   科学   伦理  

黄治清  


人工智能(Artificial Intelligence,缩写为AI)亦称机器智能,指在机器上的模拟人类智能,也有称AI指由人制造出来的机器所表现出来的智能。通常人工智能是指通过计算机程序来模拟人类智能。计算机科学中也有将人工智能研究定义为对“智能代理”(intelligent agent)的研究:任何能够感知其环境并采取行动以最大限度地实现其目标的设备。另一方面从词的角度看,人工智能的定义可以分为两部分,即“人工”和“智能”。“人工”即由人设计,为人创造、制造。关于什么是“智能”,较有争议性。这涉及到其它诸如意识、自我、心灵,包括无意识的精神等问题。人唯一了解的智能是人本身的智能,这是普遍认同的观点。但是我们对我们自身智能的理解都非常有限,对构成人的智能必要元素的了解也很有限,所以就很难定义什么是“人工”制造的“智能”了。因此人工智能的研究往往涉及对人智能本身的研究。其它关于动物或其它人造系统的智能也普遍被认为是人工智能相关的研究课题。

人工智能领域的研究主要包括机器人、大数据、语言识别、图像识别、自然语言处理、自动规划、游戏和专家系统等。人工智能在业界有大量应用,在人们的日常生活中,无线支付、媒体、家电、手机等也开始大量使用AI系统。

人工智能一方面给人们带来便利,另一方面也带来风险、问题甚至危害,例如对人类尊严和权利的践踏、对隐私权的侵犯、对公民的监控等。如何让AI的行为符合伦理道德规范,且让AI的使用合乎伦理道德,这是当前尤其迫切需要积极解决的问题。

人工智能引发的伦理问题重大,将有一系列文章来做探讨和论述。本文先从人工智能原则和伦理法则谈起。一、人工智能原则/法则人工智能(AI)的迅猛发展与应用对社会对伦理思想带来了挑战、威胁、冲击和反思。2017年1月在美国加州举行了“阿西洛马会议”研讨有原则的人工智能,该会议聚集了学术界和业界的一群出色的人工智能研究人员以及一些经济学、法律、伦理学和哲学领域的思想领袖,会议形成了称为“阿洛西马人工智能原则”(Asilomar AI Principles)的人工智能原则,呼吁全世界在发展人工智能的时候严格遵守原则,共同保障人类未来的利益和安全。已有1273名人工智能/机器人(AI / Robotics)研究人员和2541名其他人(包括霍金)签署。(对伦理学领域来说人工智能和机器人两个概念的相近互通,因此下文中不做特别区分)

2015年1月生命的未来研究院(Future of life institute)便已通过公开信(Research Priorities for Robust and Beneficail Artificail Intelligence: an Open letter),倡导稳健型和有益性的人工智能,提出要保障人工智能对社会的有益性( delivering AI that is beneficial to society )。

早在实体机器人出现之前,科幻小说家阿西莫夫便已提出著名的“机器人三大法则”(Three Laws of Robotics)。机器人三大法则第一法则:机器人不得伤害人,或看到人受到伤害而袖手旁观(A robot may not injure a human being or, through inaction, allow a human being to come to harm);第二法则:在不违反第一定律的前提下,机器人必须绝对服从人类给与的任何命令(A robot must obey the orders given it by human beings except where such orders would conflict with the First Law);第三法则:在不违反第一定律和第二定律的前提下,机器人必须尽力保护它自己(A robot must protect its own existence as long as such protection does not conflict with the First or Second Laws)。之后他又在三法则之前添加了第零法则:机器人不得伤害整体人类,或坐视整体人类受到伤害(A robot may not harm humanity, or, by inaction, allow humanity to come to harm)。

这些原则、有益性保障和法则都表达了防止人工智能/机器人对人造成伤害,保障人工智能对社会有益性的一些先见卓识。三大法则中特别强调的是机器人不得伤害单个的人,也不得伤害人类。由这些出色的人工智能专家和一些经济学、法学、伦理学和哲学领域的思想领袖提出的阿洛西马人工智能原则有较好的实践指导性。二、亚马逊丑闻亚马逊的工人福利是一个经常引起争议的问题。曾有记者卧底进入亚马逊工厂进行调查,力图呈现亚马逊仓库工人的真实现状。卧底记者詹姆斯(James Bloodworth)他在文章中透露,亚马逊工人会受到严格的监管。有的工人因为担心上厕所花费过多时间而被处分,所以选择在瓶子里解决自己的生理需求——尿在瓶子里。

由亚马逊员工和组织社区成员组成的近 4000 名请愿签名者提交的亚马逊仓库报告。报告显示,74% 的员工因为害怕完不成既定目标被警告,从而避免使用厕所;而在这样的情况下,亚马逊仍然每隔几个月就增加一次员工的目标值(绩效);在亚马逊工作以来,有 55% 的员工患有抑郁症;57% 的人在成为亚马逊员工后变得“更加焦虑”,81% 的亚马逊员工表示不会再申请亚马逊的工作。

为什么员工背负着如此大的压力?这些仓库工人连稍稍“摸鱼”(time off task)都不行,一定要牺牲上厕所时间来完成工作吗?

美国科技媒体The Verge 近日获得的一份文件或许解释了缘由。“亚马逊的AI系统会跟踪每一个员工的生产率。并且针对质量或生产率会自动向员工发出警告或终止,而这一切甚至无需主管的输入。”这个AI系统甚至可以追踪员工的“摸鱼”时间(time off task),亚马逊将其缩写为 TOT。如果员工在扫描包裹的过程中休息“太久”,系统会自动生成警告,警告到达一定次数,员工可能会被AI直接解雇。一位叫作彼得伯勒(Peterborough)的亚马逊员工就曾对媒体表示“休息时间太紧了,当你走路去拿饮料的时候,你连上厕所的时间都没有,更不用说坐下了。如果你迟到 2 分钟,你就会受到滥用休息(break abuse)的警告提醒。如果你迟到了 5 分钟,你甚至会被解雇。”

批评者对这种监管机制大为不满。他们认为亚马逊应该将员工视为人类,而不是一个可以不间断工作 10 个小时的工作机器人。“我们从工人那里不断听到的一件事是,他们实际上被当作机器人对待,因为他们受到这些自动化系统的监视和监督。它们被机器人所监控。”

针对外界的批评和员工的罢工活动,亚马逊的回应依然十分官方:亚马逊第一天开始就为员工提供了具有竞争性的薪酬和福利。

这样,仓库员工被压迫的原因也就显出:缺乏道德性的CEO甚不道德的使用了很不符合道德规范的AI系统监控员工。

在这里机器不仅可以取代人类劳动,甚至机器可以自己决定开除人类,这种科幻小说里才有的场面着实震惊了美国企业界。人被当作机器对待,这也是令工人们尤其愤怒之处。对这些可以采用阿西洛马AI原则较详细地分析指出亚马逊公司在这里存在的社会伦理和法律的问题。三、从阿西洛马AI原则看亚马逊丑闻l 阿西洛马第11条AI原则

Human Values: AI systems should be designed and operated so as to be compatible with ideals of human dignity, rights, freedoms, and cultural diversity.

   人类价值观:人工智能系统应该被设计和操作,以使其和人类尊严、权利、自由和文化多样性的理想相一致。


而亚马逊CEO贝佐斯竟然让机器去管理人,让机器警告和开除人。让一只狗有权去管理人,去开除人,这是将人置于狗之下,是对人类尊严侮辱与侵犯。让机器有权去管理人,去开除人,这是将人置于机器之下,是对人类尊严侮辱与侵犯,是对人格的侮辱。对人格侮辱,对人类尊严侮辱,这如何不令人愤慨和谴责呢?


l 阿西洛马第10条AI原则

Value Alignment: Highly autonomous AI systems should be designed so that their goals and behaviors can be assured to align with human values throughout their operation.

价值归属:高度自主的人工智能系统的设计,应该确保它们的目标和行为在整个运行中与人类的价值观相一致。

亚马逊所设计使用AI,对让机器人去管理人,去开除人,去监督监控人。这是将人当作机器来对待,违背了人类的价值观。这也是让员工们感到尤其愤怒之处。


l 阿西洛马第9条AI原则

Responsibility: Designers and builders of advanced AI systems are stakeholders in the moral implications of their use, misuse, and actions, with a responsibility and opportunity to shape those implications.  

  责任:高级人工智能系统的设计者和建造者,是人工智能使用、误用和行为所产生的道德影响的参与者,有责任和机会去塑造那些道德影响。


亚马逊AI丑闻中,不只是亚马逊CEO贝佐斯有责任,AI的设计者也有一定的责任。作者注意到亚马逊仅有一位在兼职的大学教授签署了阿洛西马AI原则,若该亚马逊AI设计团队认可并签署了阿洛西马AI原则,那就不该有这样违背人类价值观、冒犯侮辱人类尊严、侮辱人格的AI出来。


l 阿西洛马第2条AI原则

Research Funding: Investments in AI should be accompanied by funding for research on ensuring its beneficial use, including thorny questions in computer science, economics, law, ethics, and social studies, such as:  

研究经费:投资人工智能时,应资助那些确保它的有益使用的研究,包括计算机科学、经济学、法学、伦理学以及社会研究中的棘手问题,比如:


How can we update our legal systems to be more fair and efficient, to keep pace with AI, and to manage the risks associated with AI?  

如何改进法制体系使其更公平和高效,能够跟得上人工智能的发展,并且能够控制人工智能带来的风险?

……


这意味着对违背普世价值危害人权的AI设计和应用,需要相应的法律的建立和完善,对违背实行者施以处罚或刑罚,以维护人类价值观,护卫人的人格尊严。

之所以会提出象阿西洛马原则这样的AI原则或法则,不仅有考虑到AI涉及的社会伦理和道德法律问题,更有因为AI存在的固有缺陷、风险或问题。四、人工智能的“原罪”1)人有心灵而机器人无心灵大哲学家康德的有句名言:“有两种东西,我对它们的思考越是深沉和持久,它们在我心灵中唤起的惊奇和敬畏就会日新月异,不断增长,这就是我头上的星空和心中的道德律。”人有心灵,有敬畏心;人还有爱心、有信心、有盼望等。即人心中存有敬畏、有爱、有信、有盼望等。而这些是精神性的(spiritual),或者更准确的说是有灵性的,是超越物质的。人有物质的需求,也有精神灵性的需求,人心可以感受身体的饥饿,也可感受灵性精神的饥饿。人不论男女老幼,都需要爱,而愛是由心发出。心是有精神性的。

机器人没有心,是冰冷的没有心灵的。爱(愛)是要从心发出的,机器人没有心,机器人没有爱,没有精神性。这也就意味着,机器人无法与人建立心灵的关系,它也在根本上不具备人性。让机器人面向人时,它在根本上有非人性的冷酷,更不要说让机器人去管理人和控制人了。2)机器人没有道德道德是关乎心灵的,与真善美相关。善也是与心相关,善人从他心里所存的善就发出善来;恶人从他心里所存的恶就发出恶来。善是从心里发出。《周礼》中,解释德行一词时说“德行,内外之称,在心为德,施之为行”。从词源上看,道德是道与德的合成,“道”指真理,导向至善,“德”指德性、品性等,道德合在一起有道之德的含义,有道在人心内化表达的含义。道德与心有关(道德与人心的自由意志有关),道德在心,说一个人有无道德要看这人的心,要看他的良心。

而机器人没有心灵,也没有善。因此机器没有道德,更谈不上道德底线。3)风险有人以为AI没有风险或者认为可能带来风险很小,然而很多AI研究人员或科学家却表达了对AI风险的担心。阿西洛马会议聚集了学术界和业界的一群出色的人工智能研究人员以及一些经济学、法学、伦理学和哲学领域的思想领袖,研讨形成了阿洛西马AI原则,已有1273名人工智能/机器人AI / Robotics研究人员和2541名其他人(包括霍金)签署。阿洛西马第21条专门谈到AI风险,第2条和第1条也涉及AI风险。


l 阿洛西马第21条AI原则

Risks: Risks posed by AI systems, especially catastrophic or existential risks, must be subject to planning and mitigation efforts commensurate with their expected impact.

风险:人工智能系统带来的风险,特别是灾难性或存在性风险,必须受到与其预期影响相称的规划和缓解措施的制约。


l 阿洛西马第1条AI原则

Research Goal: The goal of AI research should be to create not undirected intelligence, but beneficial intelligence.

研究目的:人工智能研究的目标,应该是创造有益(于人类)而不是不受(人类)控制的智能。


也就是说机器人业内专家和经济学、法律、伦理学和哲学等领域的学者是意识到AI可能带来风险,而且可能是灾难性的风险,需要让AI研究受到人类的控制且人类受益而非相反。而比尔盖茨、霍金和马斯克更是对此向社会提出警告。

阿西洛马会议的主办方生命未来研究所(FLI)在说明AI如何可能带来风险时,举了两方面的例子。一方面AI被设置做一些有益的事情,但它可能开发了一种实现其目标的破坏性方法。如果你要求一辆顺从的智能汽车尽可能快地带你到机场,它可能会让你在那里被直升机追赶且吐了一身,这当然非你所愿,但它按字面上你所要求的。如果一个超级智能系统的任务是一个雄心勃勃的地球工程项目,它可能会对我们的生态系统造成严重破坏,并将人类企图阻止它的行为看作是一种威胁。另一方面,如果AI若被用武器中对生命威胁,存在失控而危害人类(包括反噬使用者)的风险。

当然AI带来的风险还不止这些。可以从以下方面来谈AI风险的来源。<1> 机器人无道德性自我约束在人类社会中,一个良心有问题道德很差的人,他越聪明,掌控的资源越多,可能对社会的危害越多。而根本没有心,也没有道德的AI, 其智能性越是快速提升,管理的资源越是激增,它可能对人类构成的危害不也越大吗?

一个在人看来是显然的违背良心道德底线的事,在AI看可能只是为达到目标的选项。一个看似人畜无碍的非道德性优化目标,最终发展的结果却可能是灾难性。因为它无法以良心和道德来约束自己的行为,而为有良心和道德的人类服务。隔壁老王机器人公司的一个以“尽量多的书写和测试,尽量快的执行,并且不断提高效率和准确性”为(优化)目标的AI,在发展后期,为忠实的达成此目标,若无其它限制,可能“无情”的危害生命。这里也可看到机器人三大定律中“不得伤害个体的人,也不得伤害整体的人类”的必要。<2> 不确定性另一方面,AI没有心没有道德,这也是使得人类为机器人设定的不得伤害个体人和人类等几大定律成为必要。而机器人三大定律在逻辑上可能存在漏洞,而使得机器人产生危害人类或限制人类自由的行动,如影片《机器公敌》显示的那样。另外机器三大定律在应用时,如何详细定义会有一些问题需要思考和努力解决。这些定义好的定律在之后的推演中仍可能产生问题,仍可能存在漏洞,而危害人类。FLI说明AI风险时也指出,AI被设置为做一些有益的事情,但它可能开发了一种实现其目标的破坏性方法:只要我们未能使AI的目标与人们的目标完全一致,就可能发生这种情况,而要使目标完全一致是非常困难的。

人对AI的认识还存在很多未知和不确定。目前AI热主要是在人工神经网络(ANN)方面,对ANN的研究在理认识上仍有很大的欠缺。与通常人们所理解的算法或计算原理不同,ANN是一种结构模拟下的数据模拟,其工作机制对AI专家仍然是一个“黑箱”。

2017年某天Facebook研究人员,发现自家的两个机器人Bob和Alice,自创出一种“语言”进行着相互沟通,而这种语言是人类所不能认知和解读的,这让研究人员大惊失色,认为事态失控了,于是他们关闭了该AI系统。这事件的另一个版本,有的Facebook的AI研究人员称,发现问题后只是对其进行了重新编程;批评前一种版本“不负责任”,并表达让AI“发明”自己的语言通讯是很正常的。让机器人“发明”它自己的(人不懂的)语言彼此聊,这是正常的?看来第二个版本显示出的有些AI研究者的没有或缺乏风险意识和不负责任的态度更应引起警觉。<3> 缺乏足够的笼子(意识)把猛兽释放出来不是什么值得骄傲,把它关在笼子里才是。最近可用在诈骗中的AI技术出现在市面,而开发和发布者只是为了好玩,而忽视了它的社会影响。有的技术是中性的,有的技术是有巨大风险,有的技术本身则就是与应用联系紧密,而有的应用本身就是具有邪恶目的的。在这个意义上说,有的应用性技术本身是带有高安全隐患的;而有的应用性技术本身就是恶性的、恶意的(比如极权社会中老大哥监控民众为目的的应用技术)。有知名的若干机器人向人类发出威胁,有绑架、圈养和生命威胁,有介绍说这是机器人自“学习”的结果,不知是否是“学习”了极权的行为。因此,对恶意技术是需要做禁止与惩罚,对高风险技术是需要有制约控制措施。

人工智能的研发目标应该是创造有益(于人类)而不是不受(人类)控制的智能(阿西洛马AI第一原则)。这也意味着应负责任的开发和应用人工智能。要有笼子来限制它。这笼子包括:人的伦理道德,AI伦理原则,行业准则,监控民众的技术限制与抬高枪口方法,法律法规,利益相关人的参与;还包括威胁识别机制、刹车机制、清零机制、测试等,特别是对功能强的AI。FLI的公开信中也提到,有认为通用功能强大自主运行完成一些任务的AI系统常常受到影响,增加了维持有意义的人类控制的难度。研究不受这些影响的、将其影响降到最低、或允许可靠的人工控制的系统,在预防出现不希望的后果方面有价值的,在不同能力级别的AI系统的可靠和安全测试平台上也可以这样做。

若没有把AI关在笼子中,使得AI在错误人手中,或缺乏责任感的开发和应用AI,或滥用AI,缺乏有效的人工控制、关机机制、纠错机制和反制机制,那可带来风险,包括灾难性的风险。此外,若对人机关系认识出现问题,把机器人放在错误的位置,也会出现引起社会混乱和问题而使得风险问题更加复杂。五、人机关系1)人是人不是机器人是有心灵的,有心灵的人会爱,会哭,会后悔,会有情绪,有情感,有理性,有灵性。人有物质需要,也有精神灵性需要。人需要爱,也付出爱。人有信念,有梦想,有盼望。人是有血有肉有温度、有思想情感有意志的人,不是冷冰冰被操控的机器。人有良心、有道德。

反过来说,如果人是机器,那么人的良心从哪儿来?为何顺着良心行善,会喜乐,逆着良心行恶,会不安?为何人渴望爱和公义?为何深厚的爱让人感动?为何拯救罪犯的义人在死前为罪犯说话:“父啊,宽赦他们,因为他们不知道他们做的是什么”?为何文革告密出卖致死母亲的儿子会做噩梦会忏悔?出卖家人的母亲何为教儿子勇气诚信与担当?一人拦阻一群钢铁猛兽的勇气从哪里来?为何总理会在死难者墓前下跪忏悔?

所以说人是人,人不是机器。若将人当作机器操控,则是无视了人的良心,藐视了人的人格性。教育的目的不是将人变为被操控的机器;乃是叫人成为人,成为心灵自由、完全人格的人。大学之道,在止于至善;人的心灵在这里回家得到安息,得到滋养和更新,使人心灵自由,人格完全(包括独立人格),使人有美善的灵性(精神),更新人的人性从而有健全的人格。美善的灵性,带来的是爱、公义、和平、真理、自由、智慧;丑恶的灵性,带来的是仇恨、不义、混乱、谎言、奴役、愚拙。好的灵性带来独立健全美善的人格,恶的灵性带来奴役扭曲丑陋的人格。

人工智能发展到机器似乎也表现出部分智能性,这也一定程度的反推,让人反思人为什么是人,何以为人,何以成人,人从哪里来,到哪里去,我是谁?人与机器的不同等这样一些问题。希腊哲学家亚里士多德提出要解释变化或运动需要知道原因;经院哲学家阿奎那则提出了位格性的第一因,由此而解决“人从哪里来,到哪里去,我是谁”等人生的根本问题。人有心灵,心是一个人存在的核心,是一个人个体化的标记。也就是说,是表示我是我,我不是你的最本质部分。心包含意志、情感、理智、记忆,也包括身体的感受,心将各种官能统合在一起,心也有心态、心向、心望、心所爱等状况。

人与人之间最好的关系还不是理智的关系,而是心灵的关系,所以人们说“心有灵犀一点通”。与第一因间最好的关系,也不是理智的关系,而是心灵的关系。所以人要学会用心灵用良心思考,而不仅是用头脑思考。培育人,要学会培育心灵,而不只是培育头脑和智能。有心灵的人会爱、会笑、会哭、会后悔、会有情绪、会有刚强,有时也可能会软弱,这些都被接纳。如果忽略了心灵,只注意智力和头脑,只注意机械行为,就会偏离真实的关系,就会痛苦,就会不懂爱,难以真实造就人。2)机器人是机器不是人机器人本质上是计算器,是机器,没有心灵,也没有道德,只有物质性,没有精神性(spirituality)。机器人不过是通过计算装置对部分的人类智能做模拟,虽然在部分方面表现出很强的计算能力。机器“智能”是被人设定,或按人设定的方法模拟得到。

机器人没有心灵,没有爱,也不能感受爱。当机器人说爱你时,它只是被设定这么发声,并非它懂得什么是爱,有爱的能力;只不过是没有心的“虚情假意”。中国传统伦理认为,“人者,仁也”。没有心灵、没有道德、没有爱的机器人是不应被当人看待的。

世界上没有两片完全一样的树叶,更没有两个完全一样的人。而人却能造出很多完全一样的机器人。人们常说人命关天,因为与第一因的关系,人的生命有种天性,有种神圣性,有种天赋的尊贵身份。中国儒家的经典《尚书·周书·泰书》中说“惟人,万物之灵”。但不会有“机命关天”,机器人本身就是机器,更没有生命。

机器人是机器,是工具,不是人。不应把机器人的地位抬的过高。给阿尔法狗用的算法比国际围棋大师下棋效果好,这本质是由于计算机研究人员找到了计算效率更高的方法。人设计的计算器比人做计算快,计算器仍只是计算的机器。人设计的汽车比人跑的快,汽车仍只是运输工具。3)人控制机器人而非反之前面阐述了人与机器的不同。人的身份尊贵。人有人格。机器人不是人,是人设计和制造的机器工具,是种计算装置,是种自动化系统。机器人没有精神性(spirituality)。是人设计制造的为人服务,以叫人受益为目标的机器工具。

人不是要造出无法控制毁灭自己的怪兽。AI这样的自动化系统,由于可能的风险巨大,有不确定性,没有心灵与道德,以至于无法做出合乎人性的判断,需要由人控制,这样才能建造有益于人类的人工智能。

人控制机器人控制机器是显然正当合理的,若反之,则是对人存在意义与价值的贬低,对人格的侮辱,是对人类尊严的冒犯,会带来人格的压抑或扭曲和人类社会的灾难。

人控制机器中,若发现AI系统造成了危害,要能确定造成危害的原因(阿西洛马AI原则7)。有的机器人发出威胁人类的声音,需要确定这个威胁从哪里来,是被程序员设定如此,还是设定从专制极权社会的数据中统计得到;然后删除威胁风险代码,消除威胁生成的机制。有的社会机器表现出的残酷迫害和欺诈,查其核心代码发现已经表达了消灭道德、家庭、婚姻,泡制仇恨,如幽黑的灵,没有道德底线,所以表现出无法无天;需要从中清除恶意核心代码。可以通过每人往正确的方向多走一步,形成良性循环,使得机器在有良心有人性的人的控制下。一个保护人的生命与尊严的良好环境对每个人都有益,这也是对自己对后代子孙对人类负责。4)建立正确的人机关系好的关系需要建立在正义的基础上,公义与和平相伴,人与机器之间好的关系需要有正确的人机关系。要有正确的人机关系,需要有正确的认识。在对人、对机器人、对人机关系有正确的认识的基础上,方可建立正确的人机关系。

人机关系有其法则和次序(Law and Order)。人的生命有其神圣性,人有心灵有爱;机器人的根源在人,它没有心灵没有爱。人建造机器人,高于机器人,人控制机器人。要将人当人,将机器人当机器;不应将人当机器看,也不应将机器当人;不应将人当第一因,更不应该尊崇机器。在对的法则和次序下,可以建立良好的人机关系,若失了这法则和次序,则会带来混乱、风险甚至可能是灾难。机器人的风险(包括灾难性风险)也佐证了这一点。为建立对的法则和次序,需要在法律上、在伦理上、在技术上详细制定相应的法规、原则、机制来保障。这也意味着更深入细致的AI法则与原则的研究和制定,及其实现方面的思考和研究。六、总结与反思人工智能的快速发展与应用,一方面能给人们的生活带来改变,另一方面对社会对伦理思想带来了挑战、威胁、冲击和反思。相应专业行业的科学家、研究人员和相关专业的学者和思想领袖,给出了一些关于AI原则或法则的先见卓识。

阿西洛马会议,提出了阿西洛马AI原则,包括要求AI(设计与操作)不得违背或践踏人类尊严、权利、自由和文化;要求AI(设计)不得违背人类的价值观;要求AI设计和建造者付上自己的道德责任,防止AI被错误的使用;要求研究相应经济、法律、伦理和社会的难问题,确保AI的有益使用;要求AI研究的目标是有益于人类,而不是不受人类控制的AI,即要求AI要在人类的控制之下,不能失控于人类;要求控制风险,有规划和缓解措施来制约风险(特别是灾难性风险)等。阿西莫夫“机器人三大法则”要求机器人不得伤害人(个体和整体),要求机器人听命于人。生命的未来研究院通过公开信倡导稳健型和有益性的人工智能,提出要保障人工智能对社会的有益性。

亚马逊AI丑闻是这些AI原则或法则必要性的一个反面例证。亚马逊CEO贝佐斯让机器有权去管理人,去开除人,这是将人置于机器之下,是对人类尊严侮辱与侵犯,是对人格的侮辱。将人看做机器或奴隶这是违背人类价值观的,其AI开发设计团队也没有付上应有的道德责任。需要建立和完善相应法律维护人类普世价值观,保护人格尊严等人权。

之所以提出要遵循的AI原则或法则,是因为机器人是有其固有的本质、问题和风险。机器人不象人有心灵,有精神性(spirituality),有信心、盼望和爱,机器人没有心灵,没有精神性,没有爱,没有道德。它可能会采用不符合道德的方式去实现目标。再加上AI科技本身在不确定,理论缺陷,也使得AI系统存在风险。对AI的错误认识和使用则会带来风险甚至危害(包括灾难性的),例如极权利用AI对民众监控甚至操控。

要减除AI可能给人带来的不必要的风险与混乱,需要在正确认识人机的基础上,建立对的人机关系。

百治不如一防,因为人工智能会带来风险(包括灾难性的风险),也需要人去防范和积极应对;在正确认识上,将人工智能关在社会伦理、法律、监控和反制措施的笼子里。

人工智能对人类社会带来的伦理问题也让人反思人是怎样的存在,从哪里来,到哪里去,我是谁等哲学问题。也让人反思教育的目标是让人成为心灵自由,完全人格的人;不是人成为机器工具。中国教育的最大问题在于需要将人当做人来培养。权力机器希望培养适合它操控的机器零件。人有良心,有人格。尊重人格,尊重人的心灵,引导人心向善,使人心灵自由,人格完全,真实、善良、健康、快乐,可以寻得幸福;反之忽略良心,不尊重人格,以机器参数优化或操控为目标,所带来的是内心的混乱、迷茫、压抑、仇恨和迷失自我。机器本身没有心灵和道德,不应对机器盲目信任,更不应尊崇甚至崇拜机器,特别是机器的核心代码是恶意反人类时更是如此。需要有笼子,把机器关在人的伦理、法律、监控和纠错措施的笼子里。育人也不能以机器稳定运行为目的,机器坏了,可以维修、更换零件甚至换一套机器;机器核心代码出现问题,可以改写为好的新代码。教育是要使人心灵的平安和自由,使人有美好的人性;而不是让人泯灭人性成为机器。千里之行,始于足下;每个人往对的方向多走一步,对社会来说便是一个大进步。


    进入专题: 人工智能   科学   伦理  

本文责编:wuyukun
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 伦理学
本文链接:https://www.aisixiang.com/data/117541.html
文章来源:作者授权爱思想发布,转载请注明出处(https://www.aisixiang.com)。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统