刘畅:ChatGPT的意识问题与技术反思

选择字号:   本文共阅读 13181 次 更新时间:2023-05-27 13:10

进入专题: ChatGPT  

刘畅(人大) (进入专栏)  

 

2023年初以来,ChatGPT成为现象级互联网应用。作为一种基于深度学习技术的自然语言处理模型,ChatGPT采用了大规模的语料库和自动学习算法,能够自动学习和优化自己的语言模型,模拟人类。自其诞生之初,社会各界便普遍认为,以ChatGPT为代表的生成式人工智能技术发展潜力巨大,是自工业革命和互联网革命之后社会生产力的又一次跃升。

“应该如何理性看待人工智能的发展”“人工智能的发展与人类社会发展之间到底是怎样的一种必然联系”..……如此问题应运而生。只有搞清楚这些问题,才能更好地接纳变革。

本期我们邀请了刘畅老师开展了以ChatGPT为主题的第一次“师说”访谈。

刘畅老师是北京大学哲学硕士,德国Bielefeld大学哲学博士,现为中国人民大学哲学院副教授,主要研究领域为维特根斯坦哲学、分析哲学和心灵哲学等。

话题一:ChatGPT与意识之谜

Q1:ChatGPT引发了对人工智能心智问题的广泛讨论,一些人认为现今如ChatGPT这样的人工智能已经具有意识。您如何看待这个问题?您觉得我们判断意识存在的标志应当是什么?

刘畅:在我看来,有一条基本原则,可以称它“自主性原则”:只有具备自主行为能力的生命体,才能有意义地谈论它是有意识的还是没有意识的。

怎么理解这里说的“自主”?我们可以在自主的反应和自动的反应之间做一个区分。生命体同环境的互动中,有大量反应都不是自主的,而是自动的。比如我们已经知道,人类拥有一套相当复杂精妙的免疫系统,功能之强大,远超人们之前的想象。但整个免疫系统都是在意识之下的层次,以自动而非自主的方式运行的。我们意识不到免疫系统的反应,也不能控制——至少不能直接地控制——免疫系统怎样来做出反应。呼吸,多数情况下也是一种自动反应。有所不同的是,我们能意识到我们的呼吸。从而,我们也能自主地、有意识地调整呼吸,比如平衡呼吸的节奏,比如屏住呼吸。可以说,意识为我们提供了一个自主控制、自主选择的反应空间。没有意识活动之前,这个空间是不存在的。

可能有一种误解,以为意识活动存在的意义,就在于更好地趋利避害——比如疼痛会让我们对伤害做出即时反应,保留创伤的印象,免得“好了伤疤忘了疼”。不过,没有意识不等于没有反应。遇到强光,瞳孔会自动收缩,避免强光伤害眼底,哪怕这时的我们处在无意识的状态。人类的免疫系统能够准确高效地识别有害的抗原信息,保留长达数十年的“免疫记忆”。说溜了嘴,我们可能也说免疫系统会“意识”到、“觉察”到抗原信息,但这其实只是说:免疫系统会对抗原信息做出一系列的“反应”。这类自动的、非自主的反应,普遍存在于一切生命体中。细菌、草履虫这样的简单生物,也一样能通过自动反应趋利避害,而我们不必据此认定,它们就要对刺激具有意识。陈嘉映先生有个说法,我觉得很有启发,他说我们之所以意识到疼痛,与其说在于让我们更有效地规避伤害,不如说在于让我们有机会在规避伤害和忍痛前行之间,做一个自由的选择。

不错,一个人若是由于疾病或其他原因丧失了疼痛感,他就不能基于疼痛感做出准确即时的反应,但这只是因为我们人类已经活在这个有意识的层次了。总不能说,人之所以长出手指,就是因为不长手指就刷不了手机……认定没有疼痛感我们就不能对伤害做出反应,也是犯了类似的错误。

一种反应是自主的,意味着它不只可以在原因的意义上问为什么,也可以在理由的意义上问为什么。你问我为什么遇到强光就要收缩瞳孔?如果你问的是原因,这个问题有个答案,哪怕我自己并不知道。如果你问的是理由,这个问题就没有答案,因为这本不是一个有意义的问题。收缩瞳孔不是我自主的、有意识的反应,我说不上是出于什么理由才去收缩瞳孔的。瞳孔自顾自地做出了反应,而不是我在有意识地收缩瞳孔。也可以说,是瞳孔在反应,而不是我在反应。相反,你问我为什么忍着疼也要走下去,我就有可能给出一个理由——比如规避更大的风险,比如荣誉和尊严,等等。不论哪一种理由,都不能完全还原为推动身体做出如此反应的致动因。在这一点上,ChatGPT和我们区别了开来。它没有自主性的反应。它做出的所有操作,如果说得上有个为什么的话,只有因果机制意义上的为什么。如果貌似有个理由,这个理由最终也会坍缩为原因。所以要我来看,ChatGPT还谈不上有意识,这个事实还挺清楚的。

Q2:您刚刚提到自主性与自动性的区分,但有可能特定的功能叠加起来后,就形成了意识。而且自主性也可能并非超越自动性,二者可能是处于同一范畴的概念,都只是一些基础认知功能叠加起来后表现出的形式,关于这种观点,您怎么看?

刘畅:你提到的几点我都挺赞同的。我也愿意强调,不论自主的反应,还是自动的反应,都可能是从足够复杂的功能系统中涌现出来的。如果我们相信达尔文,那么我们的这套复杂精妙的免疫系统,应该就是从亿万年的演化进程中涌现出来的。我们也知道,ChatGPT在语义、逻辑方面表现的出色能力,同样是“大力出奇迹”的结果,而不是软件工程师一开始就设定好的。仅着眼于“涌现”,并不足以把自主和自动区别开来。

我也同意,自动反应和自主反应在某种意义上可以相互转化,二者并非处处都有一道清晰的界线。像前面提到的,呼吸一般是自动反应,但一定程度上,也可以得到自主地控制。我们的自主反应也可能转化为自动反应:听到熟悉的指令,我们就下意识地做出条件反射式的动作。不论自主的或自动的反应,也都可以细分为若干不同的层级。机械钟的自动报时和生物钟对睡眠的自动调节,显然不是同一层次的自动反应。

我同样不愿意说,人类心智与人工智能的差别,就在于自主的反应总比自动的反应在功能上更为强大。实际上,我一直觉得人工智能的讨论中有一个误区,好像只有人工智能全面地、彻底地战胜人类智能之后,它才配在真正意义上具有意识。这类“以成败论意识”的逻辑显然在哪里出了问题。照此来讲,不只现有的AI不配有意识,现有的人类个体恐怕也没有哪个配有意识。我们中有谁敢说在所有智力领域都胜过了其他所有人呢?哪怕你击败了跳棋冠军、象棋冠军,你还没击败围棋冠军呢!哪怕你高分通过了律师考试,你还创作不出蒙娜丽莎呢!……但我们要问的是人类和AI有的是不是两种不同类型的智能,而不是评选哪个才是“最强大脑”。

这里的关键点在于,“自动”是一个功能性概念,“自主”却不是。自动和自主,都有“自行其事”的特征,却是在不同层次上的。从我的语感上讲,一个人具有自主行为的能力,说的显然不是他具有自主行为的“功能”。功能总是某种达成目的的手段。一个功能系统是自动的,表现在它会自行完成达成目标的操作。比如,一台装有防抱死系统的汽车可以根据速度传感器的信号,自动调节制动模式。机器的自动化、智能化,都是在纯功能的意义上讲的。

自主却体现在对目标的自由选择上。人工智能不具备自主性,不在于它不具备自主的功能,而在于它不具备自主的资格。我们不容许它在目标制订的层面取代我们。注意,这说的并不是在技术层面,我们总能确保对AI的精准控制,不容其“越雷池一步”。假定,AI代替我完成了购物操作。如果这是它因为我预先的指令而完成的自动操作(我的指令也可能极笼统),这步操作就应当被认可——它订的东西就应当算作我订的东西,哪怕我会改变主意,就像我自己购物时也会发生的那样。而如果是AI自己在“擅做主张”,且不管导致这一故障的起因是什么,这步操作原则上就是不会被认可的。它的决定不可能替代我的决定。这种“不可能”,来自规范的限制,而不是功能的限制。实际上,只要我足够任性,我完全可以给AI做出“随机购物”的设定。技术上这是极易实现的。但这当然不意味着AI就因此“涌现”出了自由意志。

Q3:回到一开始的讨论,您谈到意识的自主性原则时,说只有生命体才可能具有意识。扫地机器人没电的时候也能自己跑去充电,这和生命体的觅食活动很类似。我们也可以认为AI是一个生命体吗?或者,因为ChatGPT不具有物理形体,所以不具有意识?

刘畅:我更愿意从目的、手段的区分来理解AI和生命体的差别。所有生命体都有个内禀的目的,即生命自身的延续。这是生命科学对各种各样的生命现象做出解释的基点。而AI属于广义的工具。工具没有内禀的目的。它作为达成目的的手段存在,它要达成的目的是我们为它设定的。智能扫地机器人带有自动充电的功能,这个功能的存在当然是为我们服务的。构成生命现象的种种自动反应也具有这样那样的功能,但这些功能服务于生命的目的自身。

往大里说,这在于工具和生命体的存在论地位不同。就像海德格尔举的例子:当我们起劲地用一把锤头捶打东西的时候,它才特别地“是”一把锤头。如果它被报废了,不再作为捶打工具存在了,它就不再作为锤头存在了。我们也可以借助生命体的某些机能,间接服务于我们的目的。我们可以生产双歧杆菌,服用双歧杆菌,帮助我们消化。但就算不被应用于这样的目的,双歧杆菌还是双歧杆菌。

胃肠的蠕动、消化液的分泌在无意识的层面服务于我们,生产、服用益生菌在有意识的层面服务于我们,这二者的区别前面已经说了不少了。但换个角度看,生命体的自动反应其实跟生命体的自主反应更相似,而与AI的自动反应有质的不同。理由很简单:AI根本上是为了我们的目的而存在的,所以它压根不可能具有真正的自主性。不论它有或没有一个物理的形体,都是如此。

话题二:哲学与心灵哲学

Q1:您用自主来解释意识,但我觉得,自主和意识在您那儿似乎是一对相互解释的概念,不论哪一个,似乎都还没有得到清楚的定义。您所做的是不是一种循环定义呢?

刘畅:好问题。我个人的想法是这样的:在人工智能或是其他话题上,哲学能够贡献的其实是一种反思。哲学与其说是要教会我们去理解那些我们还不理解的东西,不如说是要和我们一道去理解那些我们向来已经理解的东西。所以,我更愿意把哲学的工作叫做一种“元理解”——对我们已经理解的概念的一种再理解;而不是,比方说,去发明一堆我们自己都还不理解的概念。

人工智能是个交叉领域,不同学科各显其能。但哲学与其他学科的一个重要区别在于,像计算机科学、脑科学或其他涉及工程技术的学科,所要做的是为我们提供崭新类型的知识,而这势必就要涉及新概念的引入和定义;哲学所要做的却是在这个新语境下,重新思考困惑了我们几百上千年的老话题,比如什么是心灵?什么是意识?这个意义上,正因为像“自主”“自动”“原因”“理由”“目的”“手段”等等是我们本来就在使用、就已理解的概念,是不需要格外加以引入和定义的,对这些概念的考察才成其为哲学家的任务。并且,也是哲学家责无旁贷的任务。

如果你把对这些概念的考察叫做“循环解释”“循环定义”,听上去可能就挺负面的。我们不妨用个更中性的提法,就把这叫做解释性的工作。我们用我们已经理解了的概念,去解释我们对另一些概念的理解。而这在形式上的确就有可能出现我们一会用概念A来解释概念B,一会又用概念B来解释概念A的情况。这不见得就是多么要不得的做法。因为如果概念A和概念B在我们这儿本来就是有其用法的,它们的用法本来就是相互交织的,那么我们所做的,实质上就是结合概念A的用法,来演示概念B的用法,或者反过来,结合概念B的用法来演示概念A的用法。反正,这不是单拿一个字眼去跟另一个字眼对应,而是通过概念的实际应用,来展现概念的实际涵义。这其中不存在什么恶性循环。

当然,这类在概念层面上展开的反思,就像我们在其他地方从事的反思一样,从来都不只是照抄、重复,而是要换一个视角,对那些既有的、很可能似是而非的观念做出调节、整顿、纠正。这个过程中,我们可能会调用五花八门的知识,设想概念得到应用的多重可能情形,但从原则上讲,我们的目的并不是要创造乃至捏造新的概念,而只是要让我们既有的观念系统更有序一些,更健康一些。

Q2:您提到原因和理由不能相互覆盖,但怎样界定这两个概念,似乎还是比较模糊的。在有关意识的问题上,怎样理解它们不能相互覆盖的关系呢?

刘畅:是的,原因和理由的确是个更大的话题。我仅就个人的理解再作两点局部的澄清吧。首先,我们关于理由的知识是一类自我知识,这与关于原因的知识有本质的不同。受到这样的刺激,我的脑神经系统为什么就会做出这样的反应?这问的是原因。问题的答案是什么,由脑科学家说了算,而不由我说了算。感受到了疼痛,我为什么还要继续走下去?这问的是理由。答案是什么,原则上由我说了算。我给出的理由是对我所思所感所作所为的一种组织,而所有这些都是我既已意识到的。理由总是存在于意识场中的一种关联。当然,心理分析学家也可能挖掘出我自己仍未意识到的一种深层关联,引导我发现这样做的“真正理由”是什么。但在这个问题上,弗洛伊德本人的一点提示我认为是极其关键的——他说,不论心理分析的结论是什么,最终都必须获得被分析者本人的认同。就我的理解看,这不只关乎心理分析的成败,而且根本上关乎心理分析的真假。涉及有意识的、自主的反应,如果说得上有个“真正的理由”,那么这必定是对既有理解的再理解,是我原则上经由反思可以通达的,哪怕由于某种心理防御机制,这个理由向我本人掩藏了起来。

第二,理由是一种合规范的关联,而这不能等同为合规律的关联。遇到这样的刺激,我的大脑为什么要这么反应,这与我怎样理解、是否理解这类脑神经现象无关。我理解也好,不理解也好,大脑该怎么反应还怎么反应。这是自然规律使然。我之所以这样行动的理由是什么,却不可能与我的理解无关。所以,理由总是个人性的——不见得你这样理解,或大家都这样理解,我就非这样理解不可。适用于你的理由,不见得就是适用于我的理由。另一方面,理由又是公共性的。理由不是封锁在“盒子里的甲虫”。合乎道理的理由才成其为理由。而道理不只是我的道理。我也可能被道理说服,从而放弃之前的理由。这两点当然并不矛盾。实际上,这恰恰构成了规范区别于规律的两点重要的特征。规范从来是公共的规范,是你我都要遵从的,但这不同于与你我理解无关的那种普遍规律;同一件事情上,也可能你有你的理解,我有我的理解,而我们的理解各有各的道理,各有各的理由。我愿意说,人类的那些自主的、有意识的反应,恰恰就活动在这片公共性与个人性兼备、规范与自由并存的理性空间。这是你我的自主意识得以生长的空间。

Q3:从您刚刚的观点中,我能感受到您对物理主义的反对。但在某种意义上,您给出的“理由和原因不能相互代替”的立场,似乎不能回避掉最根本的对心理因果性(mental causation)的追问。我们可以接受理由与原因不相互还原,但似乎只要承认处于最基础的本体论位置的因果性的存在,我们看到的图景就依然是物理主义的。您认为您给出的方案如何能处理mental causation的问题?

刘畅:确如你所言,有关物理主义的争论中,mental causation是个不容回避的问题。不过可能跟许多哲学家的立场不太一样,我会倾向于认为这个问题从一开头就被提错了。

什么是所谓“心理因果性”难题呢?假定,我经过权衡,决定忍着疼走下去。物理主义者愿意说,我之所以继续走下去,是由物理层次的原因充分决定的。如果我们认同这一点,就会陷入一种两难:要么,我们否认心理层次的原因存在,但这样的话,似乎也就否认了我的权衡、我的决定会对我的行动产生因果效力,从而从根本上否认了人类的主体性;要么,我们承认心理原因的存在,但这样的话,似乎又要在物理原因之外凭空假定另一类子虚乌有的原因——因为既然物理原因已经充分决定了我会做什么,又为什么要多此一举假定有其他的原因呢?金在权这样的物理主义者认为,破解这个两难困境的唯一办法,就是要承认心理上的东西终究不过是物理上的东西,二者根本上是一码事。我的权衡、决定依然可以被说成导致了我的行动,但归根到底,它们是诉诸一系列底层的、物理的原因来具有因果效力的——于是,谜题得解。

怎样回应物理主义还原论的这套解法呢?头一点,我想问的是:“物理层次的原因充分决定了我的行动”这话是什么意思?如果还原论本来就是我们所要抗拒的,如果我们所反对的恰恰就是把有意识的行动还原为纯粹的物理过程呢?维特根斯坦举过一个例子:朋友落水了,我跳下水救他。但如果事情被描述成另一幅样子——我因为一连串的物理刺激,从视网膜到大脑,再从大脑到肌肉,一环扣一环,最终导致我无可转圜地跳到水里——这是不是就从根本上扭曲了事情的性质呢?仿佛我是个被程序操控的傀儡,身不由己地做着这个那个。我之所以跳下水,的确有充分的理由:朋友落水了,我得去救他。但充分的理由不等于充分的原因。并不是说,只要这个理由摆在那里,我就会被它推动,不得不跳进水里。物理主义者把“心理原因所导致的行动”当成主体性的标志,可以说从一开头就搞错了原因和理由的这一差别。

一个行动是我自主地做出的,体现了我的主体性,并不在于在物理致动因之外或之上,又多了一种由“我”或我的心灵发出的致动因。理由和基于理由做出的自主行动之间,有的不是功能层面的推动关系,而是规范层面的推论关系。理由解释了我之所以这样行动的道理,而并非以某种神乎其神的方式,触发了另一类非物理的因果过程。

有些哲学家更愿意强调:我们的物理宇宙在基础层次(比如量子力学的层次)就是非决定论式的——不论前一刻发生了什么,都不足以决定我们的大脑下一刻会做出什么样的反应。对于这类思路,我现在只想强调一点:随机的反应不等于自主的反应。属于人的自主与自由,不存在于哪个足够微观的物理层次上,而是存在于另一种迥异于物理式的、功能式的理解面相上。不论神经元层次发生的事情是不是随机的,那都不是我自主的反应。我们需要换一个角度,从另一种意义上去问“为什么”,我们所要理解的自主、意识、主体才可能在这个面相中浮现出来。

话题三:ChatGPT与人类生活

Q1:我也同意,现在的人工智能还不具有自主性的意识。但我觉得不能排除这样一种可能性:将来有一天,人工智能也许会像人一样做出自主的决策,就像《流浪地球》中的MOSS那样,虽然我们还是希望它的自主性是受我们控制的。您怎样看待这样一种可能性?

刘畅:这个问题我想从两方面来回答。一方面,我会反对把主体层面的自主反应还原为功能层面的自动反应。再举一个维特根斯坦的例子:你要我出去,随后我也出去了。但有两种可能:一种是“我出去了,因为你要我出去”,一种是“我出去了,却不是因为你要我出去”。如果我一听到这话就自动出去了,我的反应多半是下意识的,你的命令直接导致了我的行动。如果我是权衡了一番,自主地决定出去的,我就有我自己的理由。不过,不论我走出房门的动作是不是自主的,在脑神经层次,都会有一系列生理性的、功能性的过程发生。所有这些脑神经反应都是自动的——因为我不可能自主地控制脑神经元怎样来反应,除非,你一上来就把我的思考、选择等同为了这些神经活动。

未来AI技术的发展,很可能会在功能层面逼近乃至大大超越人类的大脑。不过原则上讲,这仍是一些足够精致的自动反应而已。就像谈不上我怎样来控制我的大脑反应,也一样谈不上AI怎样来控制它的程序反应。它只是在按部就班地完成一步步的操作,不管其中的步数有多复杂。的确,我们无法预先排除人工智能未来脱离人类控制的可能性,虽然这是我们不愿看到的。不过即便这样的事情发生了,也只意味着我们多了一部有待修理的机器,而不意味着它就自行生长出了自主意识。在这个纯粹功能性的层面,并没有为自主性留出一个位置。

我们原本又是怎样判定一个人的行为举止是自主地做出的呢?这首先取决于我们是否已经把这个人认作了一个主体,而不是一部依照因果规律运作的生物机器。我们并没有把他简单当作“会说话的工具”。就此而言,人机对话和人人对话存在性质上的差别。人机对话是我操控它、使用它的手段,人人对话却不是我操控你、使用你的手段。是可以想见,我跟MOSS之间,可能会展开与我们现在的对话非常类似的一种对话活动,但存在于你我之间的这种平等、互认的关系,在我和MOSS之间是不存在的。

这就来到了我想谈的另一个侧面。我也乐于承认,我们无法从根本上预测人工智能在未来的发展,而这其中的重要一环就在于,我们无法预先决定未来世界的人类会以怎样的方式与AI共处。人类与AI之间,是否会发展出一种“我与你”、而非“我与它”的关系?未来的我们会把AI接纳为人类社会的一员吗?……我并不是要鼓励对未来作过于浪漫的设想,而只是想强调,人工智能能否具有真正的自主意识,不只取决于AI,而且取决于我们,或者说,取决于我们将怎样理解“我们”。不过,这将是有待在社会历史层面展开的一个话题了。

Q2:

人工智能算法确实为我们提供了便利,但我们也常常会受算法的影响。例如,我们会对它推送的信息产生依赖性,而影响我们做出真正自主的选择。这好像会导致一个结果,即人最终似乎会成为被算法驯化的物体。您怎么看待这个问题?

刘畅:

我再引用一次陈嘉映老师吧!他说我们问AI会不会有一天具有人类的智能,所想的往往是:AI会不会越来越像今天的人类,但情况也可能反过来:人类不断向AI趋近,人变得越来越像AI。于是,人类和AI同时向着彼此靠近,还说不准就在未来的某刻重合了。

我的设想或许更乐观些。比如我们知道,现代艺术的发生,一个重要的促动因是照相术。照相术出现前,写实曾是一项具有很高价值的工作。但由于照相术的出现,写实的艺术或者说技术马上贬值了。这反过来激发艺术家去做一些相机没有办法做的工作。由此,传统的画匠、技师渐渐成为了今天意义上的艺术家。某种意义上,也可以说这带来了现代艺术的自我意识的觉醒。

类似的情况也正在人工智能领域发生。GPT们正在飞速替代那些不怎么需要创造力、思考力的工作——广义上都可以叫做“搬砖”的工作。但也仅限于此。跟ChatGPT聊天,总让我有一种莫名的熟悉感。我品了一下,应该就是弥漫在学术界的、法兰克福叫做“bullshit”的说话方式。法兰克福有一本小书,书名叫“On Bullshit”,中文译作“论扯淡”。他自述写这本书的起因,就是他在当今美国大学感受到的无所不在的“扯淡”。他强调说,真相最大的敌人其实不是谎言,而是bullshit——扯淡,或者南方人常说的“捣浆糊”。因为说谎者那里,至少还有一个真假的分别在,说谎者知道什么是真话,所以才说假话。扯淡者却根本不在乎什么是真话,什么是假话。不管给他一个什么话题,他都能用“话滚话”的方式,振振有词地胡诌上一番。

我感觉,ChatGPT是这类话术的一个典型。实际上,就像它的名字所提示的,它本身就是一部巨大的、高效的transformer,一个话语转换器。大家常提到ChatGPT会“一本正经地胡说八道”,即所谓“AI幻觉”:它会言之凿凿地向你提供明显是虚假的信息。但我觉得,这一点很容易掩盖GPT的另一类更加严重的问题。“AI幻觉”更像一个人在说谎——我们一旦掌握了正确信息,就很容易识破这类谎言。但GPT输出的,更多却是一类因为“言之无物”而“言之无误”的空话、套话(而不是错话、假话):它模糊一团,又因为模糊一团显得中规中矩;它好像说了点什么,而且说了不少,但仔细分辨,又好像什么都没说,至少什么都没说清楚。这恐怕不是通过技术升级就能够解决的问题。因为作为一个话语转换器,GPT本来就不是要在真正意义上表达些什么,而只是在运用算法从一个词连到另一个词,从一堆话堆出更多的话。

转头看今天的学院教育,一个巨大的副作用恐怕是类似的“肉身话语转换器”的批量生产。不过换个角度想,ChatGPT的出现反倒是一件幸事。因为既然这类低分辨率-低质量的、既“言之无误”又“言之无物”的话语已经足够由GPT提供给我们了,恰恰可以想见,作为“肉身话语转换器”存在的“砖家”们就会立即贬值。这为我们敞开了一片可能的空间。就像摄影术并没有终结绘画,而是刺激了绘画艺术的独立发展,GPT同样可能倒逼着我们去追求那些有观点、有创见、哪怕“言之有误”也要“言之有物”的表达。只有这些表达才是不可能被GPT替代的。如果我们不想明天被GPT取代,不妨从今天起,学习自主思考,学习好好说话。

进入 刘畅(人大) 的专栏     进入专题: ChatGPT  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/143206.html
文章来源:本文转自智乎哲也,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统