徐艳东:“遗忘”、情态与伦理——从ChatGPT的“人化”到人的“机器化”

选择字号:   本文共阅读 8870 次 更新时间:2023-09-19 01:00

进入专题: ChatGPT  

徐艳东  

 

提要:思考ChatGPT的“人化”程度首先触及的是人类的“遗忘”特质,即数字生命的纯粹记忆特质,它使得其信息只能被删除且难以被自动遗忘,这构成了它们的首要局限性。此外,在情感“之外”及情感“之前”的感受能力构成了数字生命难以彻底人化的第二个基础要素。然而,在思考ChatGPT的基本局限性的同时,以数字生命作为真正的他者,我们同时可以反观自身的当下局限性。在全球景观资本的长期以及全域性的作用下,人不仅丧失了“遗忘”的能力,同时只剩下了僵硬的认知与情感连线,这不仅造成了人的机器化,同时令人丧失了基本的道德直觉的产生条件。

在关于人与ChatGPT为代表的未来数字生命的关系问题上,一种自动的对立模式占据着主导地位。人们在着手发展数字生命的同时,也在随时恐惧着数字生命的未来侵袭。在其中,很少有人拿ChatGPT作为真正的人类他者,或者将人类当作ChatGPT的他者进行相互对待。事实上,人不仅可以检验数字生命的具体价值,作为人类他者的数字生命反过来同样也可以检验人类主体是否符合人性的基本规定。ChatGPT所缺少的品质,往往也正是经过景观资本异化后的当下之人所缺少的品质。在思考数字智能机器诸种不足方面的同时,我们还需要同时思考另外一个问题:我们人类自己是否正在成为数字机器。当下的ChatGPT与理想的ChatGPT之间隔着一段漫长的距离,它们也与人类隔着一段距离。与此同时,“我们”与位格意义上的“我们”更是隔着一段距离,且这种距离越拉越远。

在关乎道德哲学方面,当下的研究侧重于思考机器对人的伦理威胁。比如,一些实验研究注意到:ChatGPT所采取的认知训练模型不仅容易受到可用性、选择和确认偏差的影响,而且还在无意中放大了这些影响。它持续输出偏见并延续了性别歧视等刻板印象[1]1-3。此外,目前的研究还将由数字智能引发的伦理主体追责问题作为这一话题讨论的核心,例如:当AI医生犯了一个不可避免的错误时,谁应该受到指责还有待确定[1]1-3。然而,这些都没有触及伦理的根本维度。真正的伦理首先应考虑到的是主体与他者的建构问题,主要考察假设的伦理主体是否具备可能的伦理基础,他是否向世界敞开了自身。一个封闭的存在物是不可能具有伦理性的。只有我们首先思考伦理主体及其自由空间问题的时候,才有希望触及真正的伦理问题域。这便首先牵涉对于伦理主体的记忆与情态性的定位考察。

一、“遗忘—记忆”与“记忆—记忆”:关于“遗忘”的伦理奠基性

柏格森(Henri Bergson)认为:“一个生物的记忆,似乎就是衡量这个生物对事物做出行动能力的大小的尺度。”[2]263事实上,记忆不单纯是一种简单生物能力,它本身还是一种伦理能力。在其中,作为其否定性的遗忘为记忆的伦理潜能提供了可能且必要的基础。通过随时性的腾退,遗忘为记忆打开了必要的缝隙,这些缝隙不仅为记忆的持续进行提供了条件,还在记忆的深处打开了一片“空地”,正是在记忆深处的这个“空的空间”中,一个好客的主体性才可以随时静候他者的临显,从而令人的存在具有了基础的伦理性。

人与以ChatGPT为代表的数字生命的一个最大区别就是人可以“缓慢而无规律地遗忘事物”,而数字生命的遗忘则只能是“突然的”“掉落的”“删除的”。人能“缓慢”遗忘,且在记忆的同时掺拌遗忘,这与其说是反映了人的局限性,不如说这恰是人之为人的尊严与特质所在。上帝和动物要么不能遗忘,要么只能快速遗忘。在该方面,大多数人工智能也只能永远记住或者快速遗忘,却不能在记住的同时遗忘,或者在遗忘的同时记住什么。即使到了未来的超智能阶段,人工智能的记忆能力绝对超过人类,然而其“遗忘能力”还是令人怀疑,因为数字或人工智能的本质是“记忆性”的。我们只能想象一种“删除”和“脱落”,而无法在数字生命身上想象一种“遗忘”。

如果说数字生命刻入信息的方式是“事态—记忆”,人类则是始终在进行“遗忘—记忆”。人的大脑在记忆前、记忆中和记住之后一直伴随着遗忘,遗忘是人的记忆的永恒“它者”。从一个事物在我们的头脑中刻下印象的最初瞬间,我们就已经与它拉开距离,直到记得越深,我们与对象的距离实际上已经遥远无比。因此,《追忆似水年华》的作者只能通过另一种“不可能的方式”来“回忆”那些“过去的芬芳”,普鲁斯特(Marcel Proust)遵循的模式是“回忆—遗忘—记忆:遗忘”,这种特殊的“不可能的”记忆结构并非构成了回忆的特例,它更是一种记忆的日常范例。

不论是有意识的记忆还是无意识的记忆,人的所有记忆都是遗忘。所有的人类记忆都指向“过去”。正如柏格森所言:我们知觉的只有过去,而纯粹的当下则是一种看不见的发展,是过去向未来的侵袭[2]164。而严格的数字记忆则是“现在的”,它既不指向过去,也不指向未来。数字智能的记忆是僵硬的、刻录的、“非失忆”的,确切说来这是一种“记忆—记忆”。那些“不够”或者“已经失去”的部分除非经过“补录”,否则智能系统便会面临完善性的残缺。且不谈“补录”的操作主体是人类还是智能生命自身,“补录”本身就不具有伦理上的延伸性。“补录”之前只显示着残缺,它不仅构不成一种空间,反而处处显示出一种拥挤的固体特性。数字生命的拥挤性使得其内部不再具有流转生命能量的可能空间,从而令其在成为主体之前已经将自己扼死,由此更不可能为他者的随时进入提供足够开阔的可能之地。

在智能生命中,其完善性,尤其是记忆的充盈性与完善性永远是其高级化的首要条件。完善性必然要求持续的内容“补入”。即使是刻意追求“遗忘—记忆”,其必然也是以再次的记忆补入为条件的。如此,数字生命必然是一个鲍德里亚(Jean Baudrillard)笔下的“肥胖者”的形象,它比“大”更“大”。而人的记忆则并非是有意识补入的(除了部分知识技能的有意识增加)。除了特殊的生理发病,否则大多数的人都能克服掉“突然遗忘”,其遗忘是缓慢的,但遗忘始终发生在生命的深处。遗忘“与”遗忘“之间”,记忆“与”遗忘“之间”的地带,才是人性的根本价值与尊严所在。

不仅如此,人在记忆“之前”就“已经”开始记忆,在遗忘“之前”也“已经”开始了遗忘。我们在忘了的时候已经记住了什么,因为我们在记住之前已经记得了什么。海德格尔(Martin Heidegger)曾如此解析人的意识:意识已经是某种东西,同时又还不是某种东西。意识意义上的存在意味着:居留于“已经”的“尚未”中,而且这种“已经”就在“尚未”中在场。在场自身就是一种入于“已经”的自我指引[3]。反之,人的遗忘也处于“已经”和“尚未”之中,遗忘的这种特质将人彻底固定在了“世界”之中。在这种“遗忘—记忆”的基础作用之下,人成了一个随时的发射装置,他随时连接他(它)者与世界,世界也随时对人发射着连接的能量。人由此才可以构成一个绝对意义上的“此在”。经由这种连接的深刻与连续性,人成为了一个特殊的存在。

遗忘不仅构成了一种关于人的客观事态,也并非是一种限制性功能,它自身还具有伦理价值。数字生命即使其智能程度极高,且持续不断地进行数据与能量的录入与输出,然而这种与周围世界的象征连接却始终是“片段的”,其表面的完整也是以内在的残破为基础的,究其实质不过是“一片一片的连续”。而“遗忘”却始终构筑着人与世界的持续性关联。对于人的具有“遗忘性的连续”的最好的诠释就是睡眠,人即使在进行无梦的睡眠时,也一直在通过遗忘与世界随时进行“空的连接”。一种从不间断的“意识的呼吸”为人的主体性存在方式提供了一个坚实的基础。

“遗忘”在人身上实现的“不间断性”生成了一个面向“他者”的主体性结构,这个结构随时等待填充。而不间断的他者链接性便是道德的前提要件。遗忘不仅揭示了人的有限性,它还注定了人的自由现实。不同于机器的“肥胖”与“沉重”性,人能通过遗忘随时为自己减重。这种有进有出的记忆特性在人的内部打开了一个“他者的空间”——一片幽深而光亮的空地。借由这个空间,人呼唤他者,回应自身,由此具备了伦理性存在的基础。

在这个“亏欠”的结构中,人不仅通过记忆与万物进行连接,还通过遗忘与万物“解除”(进行)链接,正是这个“解除而持续的链接结构”,让人可以既不孤立又不过分受束。他可以是世界,也随时可以是自己。一个既受到束缚同时又始终自由的人才可能具备通向世界的伦理性。而数字生命则是一个坚固的实心体,只能逐步加重其“肥胖性”,过度的实心化和肥胖化让它们最终丧失了面向他者的通透性,从而也丧失了伦理存在的可能性。对于这些数字生命来说,它们可能知道他者的一切,但是它们自身并不能构成他者,也不会将其他的事物或者人类认作是他者。它们记住了一切,又完全忘掉了一切。而人在记住事物的同时也在遗忘,然而这种遗忘同样构成了另外一种特殊的“记住”,同时经由记忆和遗忘,人走到了一个绝对的伦理位置。

二、情态、“混乱”与道德直觉

目前,数字生命对于人的第二个挑战是:数字生命不仅可以具备情感功能,甚至不排除其情感性较之人类更加丰富的假设。这导致了一种极度弱势的人类局面:我们不仅在智能计算上赶不上数字生命,甚至在情感反应上也远远不及,它们具有更加精微的情感反应结构。既如此,数字生命便全方位地超越了人类。

如果再延伸到道德方面,我们又可以推出如下结论:数字生命因为智能与情感的双重丰富,将可能获得比人更加细腻的道德直觉,在实践理性方面,它们将可能会比人表现得更加合乎道德。数字生命因为其高智能铸造了高情感,因为高情感又具有了高道德等特质。鉴于此,人似乎不再具有任何超越数字生命的自身可能性。

然而在悲观的同时,我们却还同时注意到了另一种来自我们自身的作为人的显著优势。这种优势在于:在人的认识与情感“之间”有一片特殊的区域。这片区域永远需要空置,然而在其内部时刻又在互相关联。这一段属人的独特的“认识—情感”区域,其顺序既不是“认识→情感”,也不是“情感→认识”。康德(Immanuel Kant)的“判断力的批判”所强调的这最后一种含混的能力也无法到达这片地区,这是一个阿甘本(Giorgio Agamben)所强调的“声音”的“位置”。在这个“声音”的空位,人的认识与情感自由配色。这里不再涉及更少的或更多的情感,也不关乎更多或更少的认识,也不是情感与智性相互派生之地,而是一个绝对偶然的“瞬间位置”。在这个特殊的混乱区域,我们不仅在认识之前就已经认识,且在发生具体情绪之前就已经有了某些“前感情”。人在认识之前就已经有了情感,在感受之前也已经有了某种认识,这种“不可能的混合构造”则是ChatGPT等未来的超智能数字生命所难以具备的。

“大脑”和“心”并非直线对应,这也是为柏格森所肯定的人类特性,他说:“即使我们假定大脑质内每个原子的位置、方向、速度在每一瞬间都是被决定的,我们也不能从而推出:我们的内心生活也受着同样的必然支配。”[4]这些世界、大脑、情感与行动的非对称关系反映着人的独特价值。在这里,一种有序的混乱性发生了特殊的作用,它便是“先于”认识与情感的独属于人的“情态”。

混乱反对设计,甚至反对无意识的设计,后者也是设计的一种。为人的情态所涵容一切混乱的“情绪—认识”,为人的尊严与伦理独特性构筑了坚实的基础。混乱无法“自控”,甚至也抵抗“他控”。其自身既粘密,同时又充满孔洞。一种混乱的情态,它在增加的同时减少,丰富的同时亏缺。这关乎人的特异性价值。情态既不能归为认识,更不能简单归为情感。它是两者的永恒前件,同时我们又不能简单地说情态在时间上位于情感与认识“之前”。情态概念反对前后的明确顺序。

数字生命的认识与情感则具有明显的“前后”关系,它诞生在“……之后”,或者自动生成在“……之前”。即使在未来数字生命的智能与情感发展到“混响”的状态,类似于人类情态,仍然摆脱不了明显的“先后”顺序。纵使部分超智能的数字生命有意识打乱顺序且自动进入一种迷蒙的情绪状态,由此生成的“乱”仍然是一种“顺序”,它并不能构成一种真正的人类学意义上的“混乱”。

我们在制造并发展数字生命的时候,开始主要考量的是其智力要素,但后期必定要涉及道德指令的输入,因为一个高智能的生命其行为结构必然涉及道德要素。这里便涉及两种语言:智能语言和道德语言。如果我们要想实现数字生命的道德化,要么就首先为其输入智能语言,然后令这些智能语言转化为道德语言,要么就直接输入道德语言。而道德语言的输入又分为两个方面:一是直接的道德命令,二是通过道德语言转化为道德指令。即使后期这些数字生命进入了超智能的意识自觉阶段,它们也必然要面临着智能语言、道德语言与道德情感三者的转化问题。

此外,道德植入还要涉及道德场景,没有道德场景的道德语言是难以想象的。然而,在人工对机器的道德场景的植入过程中不可避免地会丢掉那些含混的部分,或者说人类根本就无法清晰地输入含混的场景。含混的仅仅属于人的情态诸要素无法以明确的语言指令的方式从人类的大脑抵达机器内部。

这些含糊的情态属于一种特殊的语言,在试图说出或使用这些语言之前,我们必须首先且只能倾听这种语言的许诺。正如海德格尔在谈及语言时曾说:“语言必须以自己的方式向我们允诺其本身,亦即允诺其本质。语言作为这种允诺而成其本质。我们始终已经倾听着这种允诺,但我们没有思这种允诺。倘若我们不是处处倾听着语言的允诺,那么,我们或许就不能使用任何语言。”[5]梅洛-庞蒂(Maurice Merleau-Ponty)也向我们解释过语言意义面对具体操作的优先性。他说:“儿童在任何逻辑构造之前就已经理解了身体和使用物品的人类意义,或者语言的含义价值,因为它自身就已经开始了把它们的意义赋予词语和身姿的活动。”[6]

总之,我们“倾听”语言总是在使用语言之前,单纯的语言的完全使用对于人来说是不可能的。然而,在面对ChatGPT等数字生命时,我们仅仅可以机械地输入那些为自己所意识到的信息与感受,却彻底远离了难以表述的语言的情境性。语言是情境和语境的——一个词或一个对话可能有截然不同的含义,这取决于语境和时间。在一种情况下“可接受的”交谈规范和形式可能在另一种情况下被认为是“不可接受的”或“不正常的”[7]。在我们将自身的感受和想象输入到数字生命内部的时候,“语言—情境”便从一个此情此景的存在式样错位成一个句子或者一种教条,尤其是在涉及道德情境的输入时更是如此。

当然,可能还有人反对说,未来的高级数字生命也可以亲自经历场景,并且通过自身的学习与体悟能力自动地优化自身的道德反应结构,这里根本不必涉及人对机器的机械植入。然而,在其中间的过程中,必然涉及机器与世界,尤其是人与机器的互动性。如果机器直接跳过与人的互动环节而建构自身,其最终的丰富与灵动性至少是值得怀疑的。

超智能生命要想足够智能与灵动,必定要参与到人的实践生活之中。而在人与机器的互动过程中,起初却一般不会投入过多的情感。研究数据[8]245显示,人们在与聊天机器人交流时发送的消息相对于与人类交流时更少,每条消息书写的字数更少,词汇量也更有限。人们与聊天机器人交流的经验少于与人类交流的经验,因此对聊天机器人的交流能力缺乏信心和舒适感[8]245。既然起初人只能以极低的情感敏锐度投入到与机器的互动之中,机器也只能把握极其稀薄的人类情感。要想实现最终的超越,它们只能解读人与人之间的互动情境,或者整体思考人类的语言库。然而,令人遗憾的是,它们虽“可以无休止地穿过该模型的各个层并围绕每一层的关键字集群移动,但它不能在这些词之下到达它们所代表的事实”[9]。智能生命最多只能通过信息综合读取来想象人的感情,其情感是想象的,而非实践的、情境的、亲身的1。不止如此,其道德直觉也并非是一种“直接的直觉”,而是一种综合而成的,由想象和认识导致的“间接的感觉”。与其说这是一种感觉和情绪,不如说是一种认识。数字生命的感觉(包括直觉)只能是认识之后的存在物,从而缺乏了直觉的独立性。

当然,人类的情感直觉与道德直觉在一定程度上也是信息综合的“结果”,然而综合却仅仅是人类直觉的一个中间环节。在这个中间环节“之前”,人类主体就“已经”开始了与世界的交织。在梅洛-庞蒂的身体现象学中,他提到了“交织”的概念,认为“交织不仅仅是我他之间的交换(他收到的信息也传给我,我收到的信息也传给他),交织也是我与世界之间的交换,是现象身体和客观身体之间的交换,是知觉者与被知觉者之间的交换”[10]。而数字生命是达不到人类生存的“交织”深度的。也就是说,对于人,真正的道德情感已经发生在“道德的情感”之前。它发生在“它之中的之前”。而数字生命的道德情感只能发生在道德综合意识之后,它是一种加法计算的结果,它难以综合“情感之外的情感”和自身之外的世界,从而难以摆脱其机械性的存在特质。

三、人或机器——谁是当下真正的“数字生命”?

以上的分析绝不是在有意贬低ChatGPT等数字或智能生命,而只是一种对其极限性的初步推测。不仅如此,在预测数字生命越来越“非机器化”的同时,我们人类自身还需要反向审视自己是否正在经历“机器化”。面对ChatGPT这个可能的将来的“他者”,我们遭遇到了一个更高的标准,同时也是一个判断人性的最低标准,这个标准可以检验我们是否通过了“人”的及格线。

我们难以否认的是,在经历了全球景观资本主义的综合景观阶段之后,我们自身也正在被塑造成为另一种类型的数字生命。在谈论数字生命时,我们很可能正在谈论自身。由此,我们必须思考如下问题:我们是否已经足够“人类”?历史进程发展到今天是否已让“人”离“人”越来越远?在装置无处不在的异化影响作用之下,我们人类主体是否已经将自身彻底“机器化”?

作为可能的将来的“他者”(它不一定发展为真正的“他者”),ChatGPT提醒我们要先观察自身,仔细体验人性中深深陷落的机器部分,只有将自己提高到足够人性的位置,我们才有望成为将来的ChatGPT的可能的“他者”。这一切尤其反应在伦理与道德方面。

首先,我们要检验自身与“遗忘”(不同于忘记历史)的距离,重新定位记忆与遗忘在我们身上的关系。当我们这样做的时候,我们经常会发现自身之中僵硬的“记忆骨骼”。在景观资本的扰动下,如今的我们同机器一样只是保持着“记忆—记忆”。当记忆将遗忘完全脱落之时,一切的记忆不仅是扭曲的,而且是僵化的、有害的。这时的记忆既不是知识,亦不是经验,甚至都构不成经历,它对我们提供不了任何养分。

如本文第一部分所陈述的,只有那种“遗忘—记忆”才能重新赋予人以灵活性,遗忘让我们不断打开自身,从另一个“不可能的”奇特的“位置”观察自身。只有“我”忘了“我”自己,“我”才能重新是“我自己”。只有这种遗忘,才能重新在自我之中清理出一个“他者”的位置,以便让真正的伦理性重新灌注到人的存在深处。未来道德的第一个可能位置只能发生在“遗忘”的领地中。不走过“遗忘”的泥泞(机遇),不仅ChatGPT的发展难以到达可能的高度,我们人类自身也触及不到真正的“属人性”。如果我们只能“记住”,且只能记住资本与装置权力让我们记住的一切,那么我们自身便会因为遗失了“遗忘的技能”而将彻底工具化与机器化。因为权力的言说方式是——“你记住”,或者是“你记住这些”,只有我们重新拾回遗忘的人类功能,我们才有望重新回到自由的原初领域。

其次,通过思考ChatGPT的情态与认知的反应关系,来检验我们人类主体当下的情绪运行模式。在生命政治与资本景观的双重塑造下,我们仅剩下了几种有限而僵硬的情感反应样式,并与有限的几种认知方式进行简易的信息连线,这便是世界后生命政治治理下的人的精神现状。当下的生命情感离开了“混乱”的区域,功绩社会令主体在各个层面压抑和收束情感认知区域,并且令认知、情感与行动三者之间高度顺序化,规定了反应的模式与范围,从而使得本该无限丰富的情态主体最终转化为僵硬的机器客体。

我们当代人的情感、道德情感与道德义务之间的反应模式同样出现了机械化的不良状况。这是一个长链条的异化结果。三者配比不协调的情况在我们当下人群中同样普遍存在。我们已然缺乏了情境化地亲身体验世界的意愿与能力,而仅能去反应规定好的反应部分,永远不再能够体验我之外的我和世界之外的世界。正在经历机器化和数字化的我们已然成为了肉体机器,完全丧失了个体直觉。我们原本应该具有的道德直觉被资本的道德律令所替代,人只能机械背诵对与错、善与恶。在资本景观的作用下,我们的生活世界变得异常坚硬,且只单纯划定了部分区域,而我们只在这有限的部分区域中以模仿的方式机械生活,其最好的状态不过是形同机器。在我们的身体外围有一层坚硬的皮肤,它割断了与外在世界的体验性交织,将所有溢出的部分彻底截除。

当情感和认知变得绝对僵硬之时,人就退化为了机器,机器的特质就是僵硬。僵硬代表有限、代表退化、代表自身对自身的拥塞。当我们想象将来的机器极度灵活并且正在“人化”时,我们还需要意识到,只有我们自身重新恢复情态的虚灵和“混乱”时,我们才有望摆脱最终的机械化。

虚灵的记忆(遗忘)与“情态的X”才能开启真正的道德局面。一种语言的“声音”——记忆的若隐若现,才能让我们距离自身的机器化宿命越来越遥远。我们需要强调的是,这里虚灵化的道德并不排斥一些道德原则,一些貌似“僵硬”的道德原则在注入实践的生命之后会变得无比灵活且实用。在知晓顺序秩序正在束缚我们思维的同时,我们要为混乱和顺序一同留下空间,如此才能摆脱顺序伦理的僵硬控制,并为主体生命展开一片“混乱”的秩序世界。

总之,记忆与遗忘、情态与情感、顺序与混乱,只有它们彼此形成对立存在的“他者”空间,一种新的柔和型与真正的自由领域才能对人重新开放。思考不可能的事物,记住已经遗忘的一切,同时能够体悟体验不到的感觉,主体一旦拥有这些特质,我们才可以不再将其命名为“机器”。

四、余论

综上所述,在我们主动思考数字生命的未来前途之时,这些“机器”逼迫我们必须重新思考人类主体自身的现实状况。我们不是要在发出感叹的同时反复忧虑数字生命的高度智能化带给我们的威胁,而是需要重新思考我们自身在经历了漫长的数字化之后将要带给自身的威胁。严格说来,真正地对“位格”威胁的永远不来自另外的物种,而只能来自于自身的孱弱或衰退。为了避免机器化,在审慎思考机器使用的风险与收益时2,我们需要首先审慎地思考自身使用的风险与收益。

我们只需要预留一个“空的空间”,在其中,一种哲学的精神至关重要,它反对“语言的自信”,召唤“自卑的声音”,不断提示自己的不足。我们在自身实践的过程中,行走的每一步都需要“再思考”一遍:我们是否正在走向更加灵活的生命道路之上。在令机器更加人性的同时,要努力使真正的人更加人性化,并且同时避免另一种“太人性”的可能倾向。这不仅是面对机器的设计道德,同时也是面对人类自身的发展道德。一个遗忘的记忆者以及一个情绪的溢出者,才可能是未来真正意义的道德主体。

 

【参考文献】

[1] HOMOLAK J.Opportunities and Risks of ChatGPT in Medicine,Science,and Academic Publishing:a Modern Promethean Dilemma[J].Croat Med J,2023,64.

[2] 柏格森.物质与记忆[M].姚晶晶,译.北京:北京时代华文书局,2018.

[3] 海德格尔.林中路[M].孙周兴,译.北京:商务印书馆,2018:209.

[4] 柏格森.时间与自由意志[M].吴士栋,译.北京:商务印书馆,2014:109.

[5] 海德格尔.在通向语言的途中[M].孙周兴,译.北京:商务印书馆,2016:171.

[6] 莫里斯·梅洛-庞蒂.行为的结构[M].杨大春,张尧均,译.北京:商务印书馆,2014:254.

[7] RUANE E,BIRHANE A,VENTRESQUE A.Conversational AI:social and Ethical Considerations[R/OL].(2019-12-05)[2023-04-23].

https://ceur-ws.org/Vol-2563/aics_12.pdf.

[8] Hill J,FORD W R,FARRERAS I.G.Real Conversations with Artificial Intelligence:a Comparison between Human—Human Online Conversations and Human—Chatbot Conversations[J].Computers in Human Behavior,2015,49(8).

[9] GROBE C.Why I’m not Scared of ChatGPT:the Limits of the Technology are Where Real Writing Begins[J].The Chronicle of Higher Education,2013(1).

[10] 莫里斯·梅洛-庞蒂.可见的与不可见的[M].罗国详,译.北京:商务印书馆,2016:272.

 

【注释】

1一些关于聊天机器人的现有研究侧重于发展或提高它们对人类语言进行有意义的解释和回应的能力,尚未进入到与人类主体真正深层的互动阶段[8]。

2相关专家在讨论智能生命时曾反复指出:为了让AI充分发挥其在医学和科学领域的潜力,我们不应该仓促实施它,而应该提倡谨慎地引入它并就风险和收益进行公开辩论[1]1-3。

 

原载:《贵州大学学报》 2023年第4期

    进入专题: ChatGPT  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/146149.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统