徐英瑾:人工智能让未来战争更“人道”——回应埃隆·马斯克先生

选择字号:   本文共阅读 1390 次 更新时间:2017-11-01 12:44

进入专题: 人工智能   未来战争  

徐英瑾  

人工智能技术与武器的结合所可能导致的伦理后果,目前正成为海外媒体热烈讨论的一个话题。美国著名企业家马斯克便在不同场合表示了对于人工智能武器化的担忧,甚至认为:具有自我意识的人工智能在与特定武器相互结合成为“可以自动开火的人工智能系统”之后,或会对人类的生存构成威胁。在笔者看来,此类担忧的确是有点言过其实。只要施加特定的管制条件,人工智能与武器系统的结合其实反而是有利于增加未来战争的伦理指数的。不过,在具体展开相关讨论之前,我们首先有必要先将此类讨论所涉及到的一些概念问题加以澄清。


何谓“人工道德主体”与“武器”


所谓的“可以自动开火的人工智能系统”这个概念,其实包含了两个关键成分:一个成分是在人工智能技术支持下的“人工道德主体(artificial moral agent)”,另一个成分则显然是“武器”。但麻烦的是,这两个概念成分的含义,其实都不像看上去的那么一目了然。譬如,某个具有进行敌我识别能力的导弹,固然可以被说成是某种程度上的“人工道德主体”,因为它能够自动寻找并歼灭目标,并在这个过程中恪守某种军事道德(比如不误杀友军),但这种武器的“自主性”,与未来学家们设想的那种可以完全替代人类士兵的超级军事机器人相比,显然还有一定的距离。与之相类比,“武器”也是一个非常模糊的概念:从十字弩到弹道导弹,似乎都可以被笼统地称为“武器”。有鉴于此,除非我们将“人工道德主体”与“武器”这两个概念都予以分层次讨论,否则,我们就无法清楚明白地表述出“可以自动开火的人工智能系统”这一概念的所指。

先来看“人工道德主体”。在美国学者瓦拉赫(Wendell Wallach)与艾伦(Colin Allen)合写的名著《道德机器——教会机器人“是”与“非”》中,两位作者曾将“人工道德主体”区分为三个层次,笔者觉得颇有参考价值。

第一,具有“运作性伦理性(operational morality)”——下面简称为“弱伦理性”的人工制品。譬如,一把手枪的保险装置就是此类伦理性的体现。保险装置本身并不具有自觉的伦理意识,但是它的存在,毕竟被动地体现了设计者关于“保护射手安全”这一点的基本伦理意识。在这个层面上,我们甚至还可以去批评某种武器的设计方案是“不伦理的”,譬如二战时代日本“零式”战斗机糟糕的装甲防护,就体现了设计者对于飞行员生命的漠视态度。

与之相比较,俄罗斯当下最先进的T-14坦克却显示出了这个维度的“伦理性”,因为这种坦克的无人炮塔设计可以大大增加乘员在坦克被击中后的生还率(对于既有坦克战数据的统计表明,在炮塔内的乘员在坦克被击中后的生还率,的确要远低于在底盘中工作的成员)。

第二,具有“功能性伦理性(functional morality)”——下面简称为“中伦理性”的人工制品。譬如,现代喷气式客机的自动驾驶仪,在很多场合下便能够代替人类驾驶员进行驾驶,并由此体现出了很高的自主性。而此类制品与伦理性的关联则体现在:出于对于伦理性,特别是“保护乘客的身心安全”这一伦理规范的考量,此类设备的设计者往往会禁止此类设备操控飞机作出某些剧烈的机动动作。需要指出的是,与前一类人工制品相比,在这一类人工制品中,伦理规范是以软件代码的形式出现的,而不是通过件的固定配置模式而体现自身的。因此,从原则上说,此类制品的伦理属性也完全可能仅仅通过代码层面上的变更而变更。

第三,具有“整全能动性(full agency)”——下面简称为“强伦理性”的人工制品。换言之,此类制品就像活人一样,可以作出独立伦理决策,并能够理解其决策意义与后果,并在一定程度上能够为其决策进行负责。很显然,我们目前还没有做出这样的人工智能产品。

说完了“人工道德主体”,我们再来说“武器”。由于“武器”的品种太多,为了适应本文的讨论语境,我们必须从施用武器的伦理后果的角度,来将其分为四类:

第一类,非致命性武器,如气溶胶弹、激光致盲枪、扩音炮等(这类武器一般不会导致人员的死亡,但可能会有致残的后果)。

第二类,短程战术性武器,如机枪、坦克等(这类武器一般在低烈度与中等烈度的军事冲突中使用,会导致人员伤亡,且武器使用的技术门槛比较低)。

第三类,长程战术性武器,如战斗机、轰炸机、军舰与不带核武器的短程战术导弹(这类武器一般在中等与高等烈度的常规战争中使用,会导致人员伤亡,但武器使用的技术门槛比较高)。

第四类,战略性兵器,如核、生、化兵器,以及中远程携带常规弹头的导弹(这类武器会造成大量的人员伤亡,很可能会造成严重的环境污染,至少会使得国际局势变得非常紧张)。

很显然,按照排列组合原理,我们现在就有了12种将武器类型与“人工道德主体”的类型相互组合的方式:(1)“弱伦理性”+“非致命性武器”;(2)“弱伦理性”+“短程战术性武器”;(3)“弱伦理性”+“长程战术性武器”;(4)“弱伦理性”+“战略性武器”;(5)“中伦理性”+“非致命性武器”;(6)“中伦理性”+“短程战术性武器”;(7)“中伦理性”+“长程战术性武器”;(8)“中伦理性”+“战略性武器”;(9)“强伦理性”+“非致命性武器”;(10)“强伦理性”+“短程战术性武器”;(11)“强伦理性”+“长程战术性武器”;(12)“强伦理性”+“战略性武器”。在这12种可能性中,特别引发我们兴趣的乃是最后四种,因为既然“强伦理性”与各种武器形式的结合目前还付诸阙如,对于它们的讨论显然也就具有了明显的前瞻性意义。

而在这四种结合方式之中,首先要予以排除的乃是“强伦理性+战略性武器”这种可能性,因为战略性兵器使用的政治后果过于严重,几乎不会有任何政治力量允许机器自行作出独立的道德决策,以决定是否可以发出此类攻击(但通过兵棋推演预测核反击的后果除外,因为人工智能支持下的兵棋推演所产生的结果,最后依然需要人类决策者加以理解与运用)。除了这种可能性之外,在笔者看来,“强伦理性+非致命性武器”、“强伦理性+短程战术性武器”、“强伦理性+长程战术性武器”这三种组合都是可以被接受的。


开发具有自动伦理决策机制的武器平台之必要性


与马斯克的论点相反,笔者认为:开发具有“自动伦理决策机制”的武器平台,从总体上看是能够增加未来战争的伦理维度的。需要注意的是,“增加未来战争的伦理维度”一语并不是指消除战争。战争的爆发往往受到非常复杂的经济、政治与文化心理因素的促动,而单纯的技术进步并不能消除使得战争爆发的深层原因。在悬置具体战争本身的政治属性的前提下,“增加伦理维度”便是指尽量减少平民与友军的伤亡,尽量减少与军事目标无关的民间财产的损失,尽量减少军事行动对自然环境的负面影响,等等。从这个角度看,战争本身的“非伦理性”或“非道德性”并不在我们的讨论范围之内,而属于政治学与政治哲学的讨论范畴。

那么,为何说具有前节所说的“强伦理功能”的高度自动化的武器平台,能够提高未来战争的伦理性呢?这可以从以下几点来得到说明。

第一,如前所述,“弱伦理属性”、“中伦理属性”与“强伦理属性”是从属于一条完整的道德光谱带的,而伦理能动性色彩在武器研发过程中的逐渐增强,往往也伴随着战争自身人道指数的增强。譬如,二战时候使用的自由落体航空炸弹由于不具备敌我识别能力、缺乏精确制导功能,对于它们的运用自然就不可避免地导致了大量的平民伤亡。而在冷战时期,由于武器的精准度不够,华约与北约集团都研制了大量小型战术核武器(核鱼雷、核炮弹等)用以执行某些非战略任务——而此类武器一旦被使用,必将造成巨大的环境破坏。

而在现代条件下,随着技术的进步,从遥远的距离,并用更小的弹药装量对目标进行打击,已经不再是奢望,而这样的战争模式显然会大大降低无辜群众的伤亡与环境的破坏。不难推论出,人工智能技术的运用,在大方向上是有利于未来战争的人道指数的继续提升的,因为“智能”在这样的语境中首先关涉的就是“在复杂的战争环境中避免附带伤害的能力”。

第二,从兵器史的角度看,能够自动开火的武器历史上早就有了,我们不必为此大惊小怪。我们知道,在传统技术条件的陆地防御战之中,弥补防守一方兵力不足的最佳战术手段就是安置地雷,因为地雷也是某种最原始意义上的“自动开火武器”(敌军的脚踩上地雷,地雷就会自动爆炸)。从这个意义上说,具有伦理自主性的自动开火平台,在伦理上应当并不会比地雷更不可接受,因为这种拟议中的新兵器还具有根据不同的对象选择具有不同烈度的打击手段的能力,并因为具备了这种选择能力而能够避免更多的伤害。

第三,一些人或许会认为,现有的精确制导技术已经能够满足未来战争对于人道性的诉求,而不必赋予武器平台以自主射击权,以增加不必要的伦理风险。但这些评论者并没有意识到赋予武器平台以自动开火权的最重要的好处,即对于士兵人力的极大解放。不得不承认的是,人类士兵在体力与心理上的极限,以及使用人类士兵所导致的人力成本,乃是制约传统军力部署的重要瓶颈,而具有自动开火能力的武器平台的使用,则将在极大的程度上增加军力部署的灵活性(这一点甚至适用于远程操控的无人机,因为今天所谓的“无人机”依然是需要大量人力资源加以控制的)。

对于预防恐怖袭击等特殊任务来说,这种灵活性将具有重大的战术价值,因为传统作战条件下人类指挥员对于上级的汇报往往会浪费大量的时间(特别是在跨时区作战的环境下,这样的汇报会因为时区不同步的问题而受到人体生物节律的干扰)——而恐怖分子或许可能会利用这一点,在人体最疲惫的时间点对平民发动攻击。大量的武装机器人不受“人体睡眠节律”影响的全天候巡逻活动,将在不增加人类军警人力成本的前提下,比较完美地弥补上这一防御漏洞。

第四,现有的无人机主要是用以攻击地面目标的,而不是用以空战。如果有人要研制用以空战的无人机的话,人类士兵远程操作的方式可能会行不通(传输距离导致的延时误差,在攻击慢速的地面目标时是可以容忍的,但这个问题却会在瞬息万变的空战中导致致命的后果)。而这一点就会倒逼航空专家去研发可以自动开火的航空器。从伦理后效来看,此类兵器的出现反而很可能会增加未来空战的人道性。

得出这一结论的具体推理是:由于不载人的战斗机可以在不考虑人体承受力的前提下发挥其机动力,这一点就会倒逼其潜在敌对国也开发类似技术,以免在军事斗争中因为己方作战平台机动力之不足而吃亏。这种相互竞争很可能会导致未来空战的全面无人化,并使得未来空战出现“有输赢却无伤亡”的新局面。而这种“不见血”的局面,也可能使得军事冲突的善后处理变得更加容易,更少刺激各交战国内部的民族主义势力,而各交战国的外交官也便能更容易找到“台阶”进入斡旋阶段,最终防止军事冲突的进一步升级。


不应过分忧虑人工智能技术伦理风险


对于笔者以上的辩护,心有不甘的读者或许还会提出如下忧虑:忧虑之一,我们如何保证恐怖分子不会使用军用人工智能技术来进一步增加其反人类活动的破坏力呢?忧虑之二,我们怎么保证具有人工智能技术优势的一方,不会凭借这一优势肆意发动战争呢?忧虑之三,我们如何保证有自动开火权的武装平台不会产生对于人类指挥员的反叛呢?忧虑之四:具有自动开火能力的机器人的使用,难道不会对战争责任的认定制造巨大的法律困扰吗?

先来看上述第一点忧虑。从原则上说,恐怖分子从总体上说是缺乏开发高级智能兵器的精神动力的。其原因非常简单,恐怖分子的目的就是制造无差别的大规模杀伤,而根本不可能关心“如何避免误伤”的问题。同时,恐怖组织也可以通过自己的招募网络,诱骗大量青年为其充当“肉弹”,而免去设计无人火力投射平台的所有技术麻烦。从某种意义上说,相比较智能化的无人火力投射平台而言,恐怖分子更感兴趣的武器技术,很可能就是传统意义上的核、生、化武器技术,因为这些技术才能够最大程度地实现其“进行无差别屠杀”的目的。

当然,这并不是说恐怖分子不可能在一个更高的技术平台上利用各国军警使用的智能化武器平台作恶,比如,他们可能入侵官方的武器指挥网络,对机器人下达错误指令。但这方面的风险在电脑网络进入军事指挥运用后就一直存在,高度智能化的军用机器人的出现未必会使得此类风险增大,却可能反而会减少这种风险,因为具有独立决策能力的机器人的“独立性”将在一定程度上抵消指挥网络瘫痪的风险。

为了更深入地捍卫笔者的如上判断,笔者试请读者不妨思考一下恐怖分子(或一般犯罪分子)利用某种被人工智能技术加强过的电脑病毒进行“网络战”的可能性。从表面上看来,被人工智能技术加强过的电脑病毒似乎会比原来意义上的电脑病毒带来更大的破坏,因此,它们似乎也会给人类的和平与安全带来更大的威胁。但只要我们仔细一想,就会发现这样的推理并没有充分考虑到恐怖分子的思想特征。

恐怖分子与一般网络犯罪分子往往缺乏精确厘定加害对象身份的动机,而以尽可能扩大网络病毒的侵染面积为乐事——譬如,2017年5月在全球爆发的网络勒索病毒WannaCry,就能够利用任何Windows操作系统的445端口所存在的漏洞进行疯狂传播——换言之,病毒的制造者根本就没有兴趣去厘定这台电脑的Windows操作系统与那台电脑的Windows操作系统之间的区别。

很显然,如果病毒制造者要将攻击目标限制在具有某些特殊特征的Windows操作系统之上的话,他们就需要全面升级其病毒编制技术,而相关的升级难度,或许可类比于将传统的“自由落体航空炸弹”升级为“精确制导炸弹”的难度。但问题是:如果这样的技术与资金投入反而使得恐怖袭击或网络犯罪所造成的“骇人”效果被打上折扣的话,那么,病毒制造者进行此番人力与资金投入的动机又何在呢?

而一个可与WannaCry病毒构成鲜明对比的案例,则由一种叫Stuxnet的计算机蠕虫病毒提供。与WannaCry病毒不同,这种计算机蠕虫病毒由美国与以色列情报部门联合研发,以便通过“入侵伊朗纳坦兹核设施之网络”的方式而去瘫痪其离心机的运作,由此迟滞伊朗的核研发进度。很显然,与WannaCry病毒相比,Stuxnet的攻击对象明确,其运作也体现了一定的人工智能特征,因为除了“离心机”这个确定的打击对象之外,该病毒并不会“误伤”与之无关的伊朗民用设施。

不难想见,抛开美、以迟滞伊朗核研发进度这一动机自身的合理性不谈(正如前文所指出的,对于这一问题的考量属于政治学范畴,而不在本文论域之内),此类战法能够有效避免意图实施国出动空军对伊朗核设施进行物理意义上的空袭,因此,反而能以小的人道代价达到相关国之战略目的。真正的“人工智能战”的伦理性,由此也可见一斑。

再来看上述第二点忧虑。就目前世界各国的军事装备研发能力而言,能够有资格研发具有高度自主性的智能兵器的国家,无非就是美、中、俄、欧盟、日等少数几家。其中,美国与欧盟以及日本互为盟友,彼此之间不会发生战争。俄国目前的确在人工智能技术的军事化方面下了很多功夫(其设计的无人战车“乌兰”已经在叙利亚战场获得了一定的战绩),但由于俄国国力的限制,其在相关领域内的技术成长空间可能还是有限的。

就我国的情况而言,目前我国在军事科技方面的发展可谓突飞猛进,且在南海与东海方向,也的确与美、日等国均有着军事与政治利益方面的角力。然而,鉴于我们与美、日之间在其他方面的密切联系(特别是经贸与文化联系),彼此之间爆发全面军事冲突的概率并不高。在这样的情况下,可以自动开火的武装平台(如前面提到的可以自动开火的战斗机)的问世,反而可以为宣示我们对于领海、领空的主权,提供了一种相对经济、不容易导致冲突升级,且依然具有威慑力的技术手段。

再来看上述第三点忧虑。机器人战士会反叛人类吗?这里需要指出的是,“反叛”是一种具有自主意识的行为:我们可以将吕布对于董卓的反叛称为“反叛”,因为我们知道吕布为什么反叛董卓;相反,我们却不能说一把不小心敲到使用者手指上的榔头“背叛”了使用者,因为榔头本身并没有能力意识到它的特定物理移动方式的意义。与之类似,若我们要承认机器人战士有反叛人类的可能性,我们就得预先承认机器人有产生与人类指令相互冲突的“欲望”的可能性,但这一点本身又如何可能呢?

按照著名的“艾西莫夫三定律”,机器人既有义务听从人类的指令,又需要负责对自己的“身体”进行保存,同时还会执行一些被预先规定的先验的规范性指令 。但在特定的语境中,这些规范性要求之间是可能发生冲突的。因此,当机器人因为某些复杂的环境因素——特别是因为执行别的规范性要求——而违背人类的军事指令的时候,我们就可以说机器人在“造反”了。

不过,从某种意义上说,这种反叛可能未必一定是坏事,因为按照笔者在上面这个自然段中所描述出来的这种可能情境,军用机器人并不是因为执行了与人类完全不同的行为规范而去背叛人类指挥官的,而恰恰是因为在“如何判定彼此冲突的规范的优先性序列”这个问题上产生了“己见”,才背叛了人类指挥员的。这也就是说,如果我们为未来的机器人战士预先“灌输”了某些被公认的军事道德准则(如不许虐杀俘虏),而个别的人类指挥员又出于某些复杂的原因,下达了违背这些军事道德准则的命令的话,那么,机器预先设置的“道德编码”反而能够成为防止个别人类作恶的一道“防波堤”。

当然,在马斯克这样的技术末世论者的眼中,他们所想到的“技术反叛人类”的场景将更具冲击力,譬如这样的画面:所有的机器人都联合起来反抗人类对于机器的统治。但在笔者看来,在我们严肃地讨论这种可能性之前,我们必须更加严肃地思考这样一个问题:所有的机器人联合在一起反叛人类的动机究竟是什么?历史上人类的军事斗争往往牵涉对于种种生物学资源(如土地、河流、人口等)的争夺,而作为“硅基存在者”的智能机器人的运作显然并不直接依赖于这些生物学资源,因此,我们也很难设想它们会对占据“肥沃的土地”与“可以灌溉的河流”产生兴趣。

当然,这些“硅基存在者”的运作依然需要大量的传统能源,并可能在这个意义上产生与人类社会的争夺,但智能设备的大量运用所消耗的新能源,是否能够因为人力活动的相应减少而得到抵消,依然是一个巨大的未知数。同时,核聚变技术在未来的运用是否能够一劳永逸地减少全球的能源问题,也是一个巨大的未知数。在这些前提要件都不太明朗的情况下,就去匆忙讨论机器联合起来与人类争夺能源的可能性,未免过于心急。

最后再来看前述第四点忧虑。在很多讨论中,“可以自动开火的军用机器人所带来的法律问题”,往往与“自动驾驶技术所带来的法律问题”相提并论。在很多人看来,由于法律责任的传统承担者是自然人,而当实施行为的自然人被替换为人工智能主体后,现有的法律体系自然就面临着被颠覆的危险。不过,在笔者看来,与以民用自动驾驶车辆为聚焦点的法律语境相比,在军事行动的语境中,此类法律—伦理问题的尖锐性恰恰是被淡化了,而不是更突出了。

这是因为:人工智能化的武装平台与人类士兵一样,都必须服从人类指挥员的军事指令,并在军事指令所允许的范围内相对自由地行动(从这个意义上说,“具备自由开火的能力”并不意味着这样的军事平台可以脱离人类的指挥体系自行其是)。因此,在大多数情况下,对于相关的军事指令的直接政治—法律—伦理后果的承担者,自然就应当是下达命令的指挥官,而不是普通士兵或者是人工智能化的武装平台。由此,在执行上级命令的过程中,自动化的武装军事平台一旦产生相对严重的伦理后果——譬如误伤了平民或友军,对于相关后果的评估,也应当充分考虑到执行任务时的复杂状况。而这种评估本身也无非只能产生四种结果。

(1)人类指挥员对机器人战士所下达的“允许射击”的命令过于急躁,而没有考虑到现场的民众生命安全;(2)机器人战士的运作产生了故障,导致其射击不够精准;(3)现场的情况过于紧急,且机器人战士是出于“紧急避险”的考量才不得不开火,并因此而误伤了来不及撤离现场的民众(而任何一个正常的人类战士都无法在这个语境中避免此类附带伤害);(4)机器人对于上述“紧急避险”的考量出现失误,或对人类指挥员的命令的语义产生误判,由此在不必动用致命性武器的情况下轻易升级火力的投放量,由此导致不必要的民众伤亡(而任何一个正常的人类战士都能够在此类语境中判断出这种“火力升级”的不必要性)。

很显然,对于这四种判断结果,我们都可以分别进行相应的法律归责。具体而言,在情境(1)中,归责主体显然是人类指挥员;在情境(2)中,归责主体则是机器人作战平台的保养与维修单位;在情境(3)中,归责主体不存在,因为机器人战士不开火所导致的伦理后果可能更为严重;在情境(4)中,归责主体为机器人战士的语义理解系统与实时推理系统的软件设计单位。尽管这种“分情况讨论”式的归责活动的流程会因为具有自动射击能力的机器人战士的出现而变得复杂,但没有任何先验的理由驱使我们,认为这些复杂状况会造成某些不可化解的伦理与法律难题,除非我们承认:在机器人战士出现之前的复杂军事语境中,已经出现的种种道德两难抉择,本来便是不可化解的。

综合上面的讨论,我们不妨可以得出这样的结论:尽管具有“自动射击能力”的军用机器人会具备过往的所有已知作战兵器所不具备的自主性,但这种自主性并不会高于普通的人类士兵所具有的权限。所谓“自动射击能力”并不等于“开战权”,而仅仅是指在人类指挥员下达命令后根据自己的判断进行目标选择与攻击的战术能力。从这个角度看,机器人战士脱离人类指挥员管制的风险,并不比人类士兵脱离上级指挥员管制的风险来得更大,甚至很可能会更小。所有试图夸大机器人战士之伦理风险的论者,不妨先思考一下使用人类战士的伦理风险,然后再对运用机器战士与人类战士的利弊作出一番更为公允的评估。



    进入专题: 人工智能   未来战争  

本文责编:陈冬冬
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 伦理学
本文链接:https://www.aisixiang.com/data/106660.html
文章来源:本文转自探索与争鸣杂志,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统