郑世林 姚守宇 王春峰:ChatGPT新一代人工智能技术发展的经济和社会影响

选择字号:   本文共阅读 2570 次 更新时间:2024-05-20 23:16

进入专题: ChatGPT   人工智能  

郑世林   姚守宇   王春峰  

内容提要:ChatGPT作为新一代人工智能技术,将深刻地影响人类的经济和社会发展。本文分析了ChatGPT在人工智能产业、劳动力与就业、教育以及科学研究和科技伦理等多个领域的发展机遇与挑战。研究认为,ChatGPT加速了生成式AI布局、劳动力市场结构演进和教育体系重塑,但与此同时也带来了科技与学术伦理、价值渗透、信息泄露等问题。此外,ChatGPT也存在着潜在威胁,其快速产业应用或将给传统产业带来了难以估量的调整成本,相应的认知污染可能会引发知识和价值观偏差。为充分利用好ChatGPT带来的发展红利,加速各种应用场景落地,并防范其可能引发诸多冲击和风险,本文最后提出了系列政策建议。

关 键 词:ChatGPT  人工智能  技术冲击  社会变革  政府监管

 

一、引言

自2010年起,社会技术革新进程日益加快,人工智能领域呈现出飞速发展和逐步广泛应用的态势(何哲,2016)。以新一代信息技术为支撑的人工智能正逐渐成为新时代产业革命与社会经济发展的新型支撑力量。学界已有大量研究表明人工智能对经济增长、生产率与技术创新、劳动力市场、收入分配、市场结构与产业组织、法律规则与法律秩序等诸多方面产生影响(Autor等,2003;Acemoglu & Restrepo,2020;Acemoglu等,2022;Fumagalli等,2022;吴汉东,2017;曹静和周亚林,2018;陈彦斌等,2019)。2022年11月30日,美国人工智能公司OpenAI发布的 ChatGPT以其“对话式”的直接互动方式及“人性化”的语言文本服务让人们进一步感受到人工智能的魅力,打破了对于生成式人工智能技术的传统认知。仅在发布短短两个月后,ChatGPT的月活跃用户数已达一亿,成为史上用户数增长最快的消费者应用。 ChatGPT的出现掀起了人工智能技术投资与发展的浪潮,改变了现有的产业格局,给传统产业带来了强烈的冲击和重大的发展机遇。那么,ChatGPT作为一种广泛影响人类经济生活的新一代人工智能技术,应该采取何种政策加以规范和引导正逐渐成为重要的研究问题。

从现有研究成果来看,国内外学者已经就ChatGPT对科学研究方面的影响进行了探究。Bert Gordijn等(2023)认为ChatGPT的发明可能会提升科研人员的工作效率。例如,当学者们文思枯竭时可以将ChatGPT作为一种工具或一种搜索引擎,甚至可以让ChatGPT作为讨论者加入这场头脑风暴,在碰撞中产生新的思想火花,提升科研工作效率。进一步,Eva等(2023)发现已有研究人员使用这种对话式的人工智能来进行统计分析、总结文献内容以及撰写论文和演讲内容,加速了创新进程,缩短发表时间,帮助人们更流畅地写作。然而,ChatGPT带来机遇的同时,也使人类暴露于诸多危险与挑战中。 ChatGPT作为“非人类”,无法拥有人的思考能力以及道德伦理观念,它所需要的是源源不断大数据的滋养,进而消化吸收,在不断读取数据的过程中训练其深度学习的能力。一方面,ChatGPT所生成的文本内容容易出错。例如,它可能会编造并不存在的文献,且输出内容冗长重复(Gordijn & Have,2023),这会降低研究的质量以及透明度,从根本上改变科研人员的自主性(Eva等,2023),使得科学研究结果不再可靠。另一方面,ChatGPT输出的文本内容又很难被识别。研究人员将ChatGPT所生成的摘要送去评审时,仅有63%的内容被审稿人识别(Thorp,2023),这必然会影响所发文章的科学性与公正性。同时,ChatGPT在引用文章回答用户问题时,是否会侵犯被引用文章作者的权利?ChatGPT能否作为文章写作的工具?倘若作者使用ChatGPT是否需要将生成内容标注?这些都是需要进一步深刻思考的问题。此外,ChatGPT的“爆红”有极大可能改变甚至颠覆人们的生存与交往方式,重新塑造社会的资源分配方式。然而,由于ChatGPT推出时间较短,目前鲜有研究系统剖析ChatGPT对经济和社会发展的影响,更未系统讨论ChatGPT的潜在威胁,以及政府应采取的监管对策。

在上述背景下,本文以ChatGPT技术冲击为切入点,从传统人工智能产业、劳动力与就业、教育以及科学研究与科技伦理四个方面进行探讨,探究新一代人工智能技术发展对经济与社会的影响。本文研究认为,ChatGPT加速了生成式AI布局的同时也可能对传统人工智能产业的生存造成打击并引发伦理与安全挑战。在劳动力与就业方面,ChatGPT的出现对不同技能劳动者的影响是不同的,中等技能劳动者受到影响较大,而高等和低等技能劳动者受到影响相对较小。在教育方面,ChatGPT对教育体系的冲击加速了人们对教育方式、教育侧重点和教育评价的思考。在科学研究与科技伦理方面,由于ChatGPT生成的学术研究不满足严谨性和科学性,从而助长了虚假信息传播和剽窃抄袭等行为并影响了整个学术生态。同时,ChatGPT创建者所在的大型企业利用技术的垄断也带来了科技伦理问题和价值渗透问题。最后,本文也分析了ChatGPT对社会运行机制、社会安全和社会主体层面的潜在威胁,展望了 ChatGPT自身技术的完善和应用场景的落地,并提出了相应的监管政策建议。

与国内外既有文献相比,本文的主要贡献体现如下:一方面,开拓了ChatGPT对经济和社会等方面影响的探索。已有文献主要集中在ChatGPT对科学研究的影响方面,而本文则从人工智能产业、劳动力与就业、教育以及科学研究等诸多方面分析了ChatGPT所带来的影响,讨论AI行业中科技哲学及伦理问题,分析了ChatGPT对于经济和社会潜在的威胁及未来发展趋势,并就这种潜在的颠覆性技术的影响讨论应对策略。另一方面,以ChatGPT为研究对象,本文拓展了人工智能领域对经济和社会影响的研究视角。ChatGPT作为新一代生成式人工智能产品,对它的研究将会进一步丰富人工智能领域的相关文献,从而对新一代人工智能领域所带来的产业发展空间具有启发意义,对人工智能监管模式变革具有政策参考价值。

本文余下部分的结构安排为:第二部分对ChatGPT的概念及其发展脉络进行梳理;第三部分在总结前人的观点的基础上,从传统人工智能行业、劳动力与就业、教育行业等方面探讨ChatGPT带来的机遇,以及可能造成的产业冲击;第四部分则进一步分析了ChatGPT的潜在威胁与未来发展趋势;第五部分在上述论述基础上,结合以往的相关政策文件,提出针对类似ChatGPT的人工智能监管的可行性建议。

二、ChatGPT的概念与主要特征

ChatGPT(Chat Generative Pre-trained Transformer)的中文全称为生成型预训练变换模型。它是美国人工智能研究实验室OpenAI于2022年11月30日发布研发的聊天机器人程序,使用了Transformer神经网络架构(GPT-3.5架构)。ChatGPT是一款人工智能技术驱动的自然语言处理工具,通过海量数据存储和高效设计架构理解和解读用户请求,可以以近乎人类自然语言的方式生成具有“较高复杂度的回应文本”,甚至能完成撰写、视频脚本、文案、机器翻译、分类、代码生成、对话AI等任务。ChatGPT的原理是在GPT3.5的基础上增加了人类反馈强化模型,使用人类偏好作为奖励信号来微调模型,并引入“人工标注数据+强化学习”来反复训练(令小雄等,2023)。特别地,由OpenAI团队近期最新发布的新一代多模态预训练大模型GPT-4,相较于上一代模型而言,更是在输入限制、识别能力以及内容生成准确性和多样性等多个方面实现了飞跃式的提升,并在各种专业测试和学术基准上有着人类水平的表现。与传统人工智能技术相比,ChatGPT及其迭代更新代表了未来人工智能的发展趋势,它可以基于大数据集自己生成内容,在语言能力、语言风格、论证效力及思想深度上赋予了新一代人工智能技术的鲜明特征。

第一,在语言能力方面,ChatGPT的可互动性是基于OpenAI公司开发的GPT-3架构的大型语言模型LLM(Large Language Model)。通过在大量的文本数据上进行预训练,ChatGPT可以实现出色的语言理解能力,生成更自然、更流畅的文本。同时,基于人类反馈的强化学习模型和微调技术,ChatGPT能够有效记忆所有历史对话,从而可以显著提升连续多轮对话的能力。普通人工智能机器人大多使用的是基于规则的模型或基于机器学习的模型。基于规则的模型通常需要手动编写大量的规则,对特定的问题和回答进行匹配,因此训练效率低、准确率差、连续对话能力弱。在普通的人工智能对话系统中,经多轮对话后,话题的一致性难以保障。相对比而言,ChatGPT在理解准确度、用户意图有效捕捉、连续对话能力等核心功能上有显著提升,并敢于质疑人类提问的不正确及承认回答中的错误。作为人机互动的辅助工具,ChatGPT具有更高的适应性,其语言理解和生成水平的便捷性能够更快更好地回答客户问题,能够广泛应用于业界和客户服务,在教育、医疗、媒介、法律等领域发挥重要作用。

第二,在语言风格方面,ChatGPT基于强大的自然语言生成式模型,其训练的“自然语言处理”(NLP)模型使ChatGPT具有拟人化风格,为提供各种灵活性话术、更人性化风格的语言文本服务赋能(令小雄等,2023)。普通的人工智能机器人语言表达方面具有“非自然语言生成式”特点,其语言风格呈现出明显的僵硬化和机械化,不便于同人类的交流与合作。相比于普通的人工智能,ChatGPT克服了以往人工智能语言非人化的缺点,能够提供更加自然、人性化的对话体验,被称为“有史以来向公众发布的最好的人工智能聊天机器人”。但是,ChatGPT在涉及人类情感细微之处的理解或措辞的使用方面还不太准确,整体语言风格也缺乏个性化,更像是多种混合的中性风格。ChatGPT表现的语言趋同化或同质化将对语言伦理产生影响。

第三,在论证效力方面,ChatGPT在以往大语言模型的基础上,其语料库中构建了逻辑模型或数理模型。通过使用更高的计算资源,ChatGPT在回答逻辑推理相关的问题时能够展示出较详细的逻辑推理步骤和推理结果。普通人工智能论证能力的实现,本质上是通过大量参数模型对海量数据进行拟合,按照固定的程序运行,其严重依赖于数据。如果训练集中尚未存在某种情况,普通的人工智能很难对此展现出逻辑思考能力。因此,ChatGPT获得了比普通人工智能更高的计算能力、准确性和逻辑上的连贯性。但由于技术盲区限制,ChatGPT目前仍然是深度学习模型,仅仅学会了推理的表面逻辑,不具备较强的逻辑推理能力和因果关系的数理运算能力。 ChatGPT只能依靠语料库驱动中的概率匹配,在相近数据中得出一个估计值。因此,在基本的四则运算中ChatGPT还经常出错。

第四,在思想深度方面,ChatGPT是基于各知识领域数据库和在巨大的文本语料库基础上进行预训练的大型语言模型。ChatGPT基于的是内在逻辑,具备思考或深度学习能力。基于训练数据库和模型结构的自动学习生成能力,语料库可以无限扩充,ChatGPT的学习力和涉猎认知范围将不断增加,拥有举一反三的能力。因此,ChatGPT的思考或计算的样本范围极其庞大。然而,普通人工智能在复杂问题理解方面还不具备与人类近似或同等的智能行为,只能通过“喂养”大量数据之后,基于对应关系进行模仿。如果没有按照人工智能习惯的方式进行提问,普通人工智能其回答往往答非所问。此外,ChatGPT还拥有上下文矫正的能力,即ChatGPT被指出问题后会立刻意识到问题所在,并及时准确地修正相关信息,而以往的人工智能尚未拥有交互修正能力的通用模型。但是,ChatGPT只是在庞大的语料库基础上通过深度学习实现仿风格化,在创作时有抄袭痕迹(令小雄等,2023)。

此外,新一代模型GPT-4是ChatGPT的进一步突破,并体现出更多的可能性。从目前的进展来看,相对于GPT-3.5,GPT-4更可靠、更有创意,并且能够处理更细微的指令和新的、令人兴奋的任务。语言能力方面,GPT-4在26种语言测试的24种中的性能表现优于GPT-3.5和其他LLMs的英语表现,包括如拉脱维亚语、威尔士语和斯瓦希里语等低资源语言。另外,在一些最初基于人类设计的模拟考试中,GPT-4也表现出更好的成绩,而且已被团队内部用来帮助人类评估人工智能的输出。输入功能方面,GPT-4在原有文本输入的基础上进一步支持图像提示,实现了可视化输入。可操纵性方面,目前开发者已经可以通过在“系统”消息中描述一些方向来规定他们的AI的风格和任务,而不是只具有固定的冗长、语调和风格的经典ChatGPT个性,即系统消息允许 API用户在一定范围内显著自定义用户体验。当然,尽管GPT-4在测试评估和功能实现上较GPT-3而言展现了略好的表现,但仍存在和早期模型类似的局限性,并非完全可靠,比如产生事实“幻觉”,错过微妙的细节,生成有害建议、错误代码或不准确的信息,存在“越狱”风险等,以及其附加功能将带来的新的风险面。在不久的将来,开发团队将进一步部署安全技术来弥补缺陷,并不断优化模型的预测能力,从而为社会提供来自未来模型预测的更好的指导(OpenAI,2023)。

三、ChatGPT对于经济和社会的机遇与挑战

(一)对人工智能产业的影响

ChatGPT的推出被视为人工智能技术历史上的重要里程碑,其以强大的算力支撑,从量变走向质变,达到了当前AI技术的巅峰水平。正是由于ChatGPT所具有的重要意义,国内外科技巨头纷纷加快了针对以ChatGPT为代表的生成式AI的布局,加速了AI智能化时代的进一步推进。这一进程为人工智能产业带来了机遇,但同时也伴随着许多未知的风险。

1.机遇:加速了AI时代进程,促进国内外科技巨头积极布局生成式AI

ChatGPT将人机对话推向了新的高度的同时,也为推动人工智能产业的发展走向新篇章带来机遇。国内外科技巨头纷纷展开新一轮AI竞赛,积极布局生成式AI。ChatGPT模型的研发主要基于强大算力和资金支持,OpenAI研发的GPT-1在2018年仅有1.17亿参数,而到2020年的GPT-3就实现了1750亿参数量。在OpenAI基础上,国内科研团队也相继推出了许多大型模型。例如,由清华大学联合智谱AI于2022年发布的中英双语模型GLM-130B,参数规模为1300亿参数,已经达到了GPT-3的水平。据慧博智能投研中所公布的Pitch Book统计数据,2022年生成式AI赛道总共获得约14亿美元的融资,几乎达到了过去5年的总和。除了OpenAI、Stability AI等明星公司,其他初创企业如Jasper、Regie.AI、Replika等也获得了资本的关注和支持,获得上亿美元的融资。

在ChatGPT的应用探索中,微软公司作为OpenAI的最大投资方也是最大受益方,开始围绕ChatGPT,将其整合入旗下所有产品中(例如,Bing引擎、Office全家桶等),以提升产品竞争力,实现多种应用场景的落地。亚马逊公司已经将ChatGPT集成在多种工作职能中。Jasper公司通过采用OpenAI下的GPT-3作为技术底层,提供高质量文本内容。美国新媒体巨头Buzzfeed也在ChatGPT浪潮的风口上宣布计划采用ChatGPT协助内容创作等。

此外,为应对ChatGPT带来的对搜索引擎领域的颠覆性改变,国内外互联网巨头纷纷布局AIGC,其不仅是类ChatGPT产品,还包括多种相关场景应用。例如,谷歌旗下的DeepMind公司于2022年推出 Sparrow机器人,采用一种基于人类反馈的强化学习(RL)框架,并将在2023年末进入测试阶段。同时,谷歌宣布向ChatGPT的竞争对手Anthropic公司投资约3亿美元,以建立新的合作伙伴关系。Anthropic公司于2023年公布名为Claude的AI聊天机器人,但目前仍处于实验阶段。除此之外,亚马逊与AI制图平台 Stability AI合作,为其提供亚马逊Tradium芯片。在国内,近期各互联网大厂也在筹备类ChatGPT的相关计划,华为诺亚方舟实验室联合多部门推出首个2000亿参数中文预训练模型盘古α;百度官宣类 ChatGPT大模型文心一言(ERNIE BOT);腾讯则在2月3日公布了一项人机对话专利。

2.挑战:对传统人工智能产业的生存打击及可能引发的伦理与安全挑战

作为一种基于自然语言处理技术的搜索引擎服务,ChatGPT具备自学习和自优化能力,可以通过对海量数据的处理不断改进自身算法和模型,实现更加智能化、人性化的搜索。ChatGPT的出现对传统搜索引擎的商业模式构成了挑战。根据Statcounter数据,2020年至2022年间,谷歌的全球市场份额超过90%,是全球搜索引擎市场的绝对霸主,而由OpenAI研发的ChatGPT的出现对谷歌的搜索引擎形成了挑战。

然而,ChatGPT也存在自身缺陷,包括数据泄露风险、信息准确性风险和AI伦理风险。ChatGPT以海量数据库信息为依托,其中包括了大量的互联网用户自行输入的信息。因此,如果用户个人输入私密信息,ChatGPT可能将其纳入自身语料库。虽然 ChatGPT所属公司承诺删除所有个人身份信息,但未说明删除方式。同时,在无法对ChatGPT的数据来源进行事实核查时,仍需注意数据泄露风险。此外,ChatGPT提供的信息并不总是准确的,需要一定的专业知识辨别真伪。同时,也可能存在有不法人士利用ChatGPT进行诈骗等违法行为。最后,随着ChatGPT等人工智能技术发展越来越成熟和先进,人工智能与人的边界会受到冲击与挑战。此外,也有可能存在算法歧视问题。目前的研究表明,预训练语言生成模型可能会再现有害的社会偏见和刻板印象。例如,GPT-3可能存在明显的宗教偏见和性别歧视等问题(Abid A et al.,2021;于洋,2022)。

(二)对劳动力与就业的影响

随着人工智能技术的迅速发展,AI逐渐在一些具有简单规则性、应用经济性、技术实现性的工作领域替代人类。ChatGPT的出现对于那些只依靠旧有技能和方法工作的人可能产生巨大挑战。同时,ChatGPT的出现对不同技能的劳动者的影响也是不同的,其中中等技能劳动者受到影响较大,而高等和低等技能劳动者受到影响相对较小。

1.ChatGPT出现将不断加快人工智能对人类常规工作的替代

人工智能技术的不断发展和进步,正在改变着我们的生活和工作方式。从既往路径来看,AI可以替代的工作通常具有简单规则性、应用经济性和技术实现性的特点(金峰,2023)。简单规则性的工作是指一些通常需要执行重复性的任务,并且具有清晰的指导原则和明确步骤的工作,在很大程度上可以由AI代替。例如,在文档撰写中,AI可应用于类似做“填空题”的自然灾害快报。在确定好时间、地点、事件类型、伤亡人数等固定信息后,AI可以根据预先设置的规则快速准确来填写。应用经济性的工作是指那些应用人工智能技术涉及到的机器成本小于人工成本的工作,从而使得使用人工智能技术成为越来越经济划算的选择。例如,工厂可以使用智能机器来完成一些简单、重复性的工作,从而减少成本,进而提高企业的竞争力和盈利能力。技术实现性的工作是指那些规则性的、简单的工作,AI可以通过算法和模型来实现自动化代替。例如,在外卖配送中,根据客户的地址信息和订单内容,AI可以计算出最优配送路线和时间。

ChatGPT的出现会不断地蚕食人类的工作领域。一方面,大规模预训练模型的发展让人工智能进入了更为复杂的规则阶段。人类的思维和行为模式受到所谓的规则控制,这些规则数量庞大但并非无限。然而,现在构建的千亿、万亿级别的参数实际上就是这些规则,它让人工智能掌握的规则数量不断接近人类。因此,那些仅仅依靠遵循旧有规则而工作的人将面临越来越大的竞争压力。另一方面,经济性的提高让AI朝着商用正循环的方向发展。从供给侧来看,算力设施和数据的丰富以及单位成本的几何级下降,使得人工智能成为“有本之木”,而预训练模型参数的数量和所使用的数据量也随着技术的进步在不断增长。从需求侧来看,ChatGPT等AI应用逐渐摆脱了“最后一公里”的状态,受到了个人和企业用户的欢迎和支持,因此愿意为这些应用付费。这也意味着,那些仅依靠旧有技能和方法工作的人将面临着更为严峻的挑战。

2.ChatGPT对未来不同技能劳动者的就业的影响

首先,ChatGPT对低技能的劳动者就业难以构成威胁。张刚等(2020)指出,与之前“技术偏向性技术进步”有所不同的是,以人工智能为代表的技术进步会导致“程序偏向性技术进步”,将劳动力市场中的岗位按技能高低分为高技能工作岗位、中等技能工作岗位和低技能工作岗位。人工智能的普及和广泛应用会增加高技能和低技能工作岗位,而导致中等技能工作岗位的减少。从技术与人的竞争来看,低技能的体力劳动者的竞争对象是终端、机械,当前尚无切实有效的替代方案。如搬运、清洁等需要身体力量的工作,这些任务需要人类的身体能力和灵活性,而ChatGPT目前无法具备体力劳动能力。Acemoglu等(2011)通过研究也发现,随着人工智能的不断发展,美国劳动力市场中岗位极化趋势主要表现为低技能服务业岗位与就业人数的增加。

其次,ChatGPT将对中等技能脑力劳动者就业构成愈来愈大的挑战和威胁。中等技能的脑力劳动者在当前的竞争环境下,其竞争对象是“有迹可循”的规则。这些规则可能是由市场、技术或政府法规制定的,而这些规则的正确应用对于企业或个人的成功至关重要。然而,随着人工智能技术的发展,ChatGPT等基于巨量数据资源和强大学习能力的人工智能,可能会对人类脑力劳动者造成威胁。从技术角度来看,人工智能的优势主要在于它强大的数据处理能力、极度的专注力和高效的多任务处理能力。 ChatGPT作为一种新兴的人工智能,它可以比人类更高效地完成数据整理、文稿编辑、机械重复类工作,实现数据的及时收集和分析。它能够快速地利用已有的知识和成熟的框架完成工作,使得许多中等技能的脑力劳动者的工作可能会被取代。因此,ChatGPT可能会对从事软件技术类、新闻媒体类、法律工作类、市场研究分析师、教师、金融分析类、交易员、平面设计师、会计师、客服人员造成威胁。ChatGPT相比人类具有更高的准确率和更低的成本,它可以利用已有的知识和成熟的框架,轻松地完成这些工作。例如,金融分析师可以使用ChatGPT来分析市场走势和交易数据,教师可以使用ChatGPT来自动批改作业。因此,ChatGPT在这些领域中的应用,可能会导致大量中端脑力劳动者失去就业机会。

此外,ChatGPT对高技能劳动者就业替代的可能性比较小。相比之下,高社交频率和创造性强的高技能劳动者,如工程师、设计师、心理医生等,在他们的专业领域中拥有着丰富的知识和经验,并且具备创造力和创新思维。他们通常需要在“无规则”的情况下进行创新和解决问题。这些情况可能包括未知的挑战、不确定的需求、不确定的信息来源等等,而 AI目前尚难以渗透这些领域。这是因为AI往往需要有大量的数据和标准化的问题才能发挥作用。在“无规则”的情况下,数据可能不够充分或者存在太多的不确定性,这就使得AI很难做出准确的决策或者提供有用的建议。

最后,ChatGPT最终难以替代人类社交、沟通、创新、思想创造等工作。虽然ChatGPT已经在生活和工作中展现了高超的技术和能力,但这绝不意味着它具有绝对的优势,能够称霸职场。与人类相比,AI也有做不到的事情。首先是情感共鸣。AI和人最大的区别在于人有情感、会思考。然而,AI与人的交流依托的是大数据和理论,即便有简单的情绪感知能力,也很难与人类产生情感共鸣。其次是,创新。虽然AI可以通过学习和储存大量数据来模仿人类的思维过程,但它并没有自主思考和创造的能力。AI的创新依赖于人类,只能通过学习人类的思考方式来生成新的想法。虽然ChatGPT可以通过大量数据分析来撰写文章、新闻稿等,但这些信息都是人类灌输进去的,AI本身并没有创新性和自主性,无法将对某个时刻的思考转化成意识。

综上所述,ChatGPT的出现,可能会深层次改变劳动力市场的就业结构,导致不同技能岗位的数量和比例发生较大变化,也使得劳动者技能和知识的更新变得越来越重要。对于那些从事中等技能的脑力劳动者来说,需要不断地学习新的技能,以适应新的工作环境。而高技能劳动者则需要不断提升自己的专业水平和创新能力,以保持竞争优势。在这个过程中,人类需要和AI共同进步,发挥各自的优势,逐步推动实现万物互联和万事协同,促使全面智能成为可能。

(三)ChatGPT对传统教育的冲击和影响

ChatGPT可以帮助使用者完成论文、快速实现一段命令的程序代码、快速识别题目并给出多种方法的答案等。它在提供了新的学习途径的同时也会减少使用者本应深度思考的机会,对教育体系产生冲击,从而对现有教育方式、授课内容和教育体制改革方向进行重塑。

1.ChatGPT重塑传统的教育方式

人工智能(AI)的发展正在显著地重塑教育服务的劳动市场。最新的研究表明,人工智能有可能替代或部分替代通常由熟练专业人员完成的创造性工作,例如,学术写作、编码等(Li等,2023)。Qin等(2023)对 ChatGPT、GPT-3.5进行了特定任务数据微调的研究,发现ChatGPT在许多推理性任务上表现良好。但是,也有文章明确表示AI对教育的重塑是必然的。作为最近研究人员开发的聊天机器人和对话式AI系统,ChatGPT正在潜移默化地影响着传统的教育方式。

传统教育方式的第一步是训练系统,通常是通过记忆构建一个概念的支架,再通过主观获取知识,并将其沉淀形成个人智慧。ChatGPT的出现对个人记忆的储存产生强烈的冲击。这款对话式AI极大缩短了获取信息的时间,并且对待不同语序、关键词的提问都能给出相似的回答,甚至可以承认自己回答中的错误,拒绝不适当的查询。这些功能提供了新的学习机会,但也引起了教育从业者的担忧。因为学生可能会使用ChatGPT作弊、代写论文,从而使学生失去独立思考的机会并产生依赖心理。但这也从另一个角度映射出传统教育工具箱的单调,如果教育从业者对教育的测量工具进行反思、对传统教育工具箱的滞后进行思考,那么将形成新的教育教学模式,并重塑传统的教育方式。

2.ChatGPT迫使教育工作者思考教育内容的侧重点

普通的教育方式是通过大量知识记忆,促进神经元突触的广泛链接,从而极大提高大脑机械翻译官的速度,最终积淀成为智慧。而ChatGPT的智能是由类脑神经网络和大量的语料训练催生的,且记忆速度远高于人类,这将引发教育工作者思考ChatGPT下教育内容的侧重点。不少学者认为,人工智能虽然相比于普通的程序能更像人类进行思考,但是,在一些创造性的工作与项目中,如突出创新能力的作业、体现实践智慧和动手能力的考察、解决复杂问题的过程等,ChatGPT和人类相比仍有很大差距。 Frey(2017)认为教育应侧重于提高学生的创造力和批判性思维,而不是一般技能。思维方式的多元性将决定人类智慧的多样性,我们应该培养和创造更多样的思维,而不是试图让学生掌握更多的知识。面对ChatGPT等AI辅助工具,教育工作者必须通过创新教学设计,彻底改变作业和学习任务,以培养学生超越AI能力的独特技能,而不是抗拒甚至逃避AI带来的便利与挑战。同时值得注意的是AI不是人类判断和专业知识的替代品,它应该被视为增强和支持的工具,而不是取代教育工作者的角色。

3.ChatGPT推进教育评价体系的变化和改革

随着教育体系越来越注重基于量化成绩的考核方式,越来越多的学生开始专注书本知识的记忆与运用,而价值观、思维方式、同理心、创造力、合作精神等无法量化的内容也因“马太效应”逐渐被忽视。 ChatGPT作为一种快速知识记忆并能够准确检索的人工智能,提醒了教育工作者与受教育者需要区分人与人工智能的区别,充分发挥人类的优势,发掘无法进行量化的方面。这就需要对教育评价体系进行改革,教育工作者必须考虑对教育学习目标、学习任务和评估进行调整,以更好地培养未来的公民。尽管目前对教育学习目标的独特分类法并未达成共识,但人们普遍认为教育应该为学生准备认知、社会和情感技能,以及针对特定学科的知识来处理现实世界的问题(Pellegrino,2014)。

综上所述,ChatGPT能够准确、高效地处理信息,减轻人类工作负担。而在教育领域,虽然对ChatGPT的不当使用可能会产生负面影响,但更值得关注的是以ChatGPT为代表的AI最新技术,正在推动教育体制全方位的改革,教育工作者应该借此改进传统的教育模式,引导受教育者达到以知识为载体的全面发展。

(四)ChatGPT对科学研究与科技伦理的影响

ChatGPT因其基于大型语言模型(LLM)的生成式对话能力受到各大领域的青睐。尤其是,ChatGPT给学术研究带来了极大的便利,帮助学者进行初步信息收集和数据处理,甚至可以快速整理文献综述,显著减少撰写论文所需的时间。但也正是ChatGPT具备的这项技术,引发了对科学研究和伦理方面的争议。例如,ChatGPT时常出现的错误回答降低了学术研究的严谨性和科学性,进而促使虚假信息传播给社会带来重大危害。同时,ChatGPT产生的信息涉及的剽窃抄袭等行为也影响到了整个学术生态。特别地,ChatGPT创建者所在的大型企业利用其技术的垄断地位,带来了科技伦理问题和价值渗透问题。

1.ChatGPT虚假信息传播会降低学术研究的科学性

ChatGPT是基于语料库的生成式对话模型,其虽然能够生成连贯且语法正确的文本,但并不具备甄别虚假信息的能力。ChatGPT会不断产生其认为的客观答案,可能生成虚假的学术文本,或者经刻意训练后提供虚构的科学研究、引用一项不存在的科学研究,进而引起专业研究的不准确、偏见和抄袭。而且随着语言模型的进一步优化和相关技术的成熟,将更大程度降低虚假内容生成门槛和信息传播成本,从而加速这种虚假传播,同时,语言风格的高度逼真实际上也将强化虚假内容的可信度和影响力,加大学术风险。现有研究表明,ChatGPT事实上会写出听起来似是而非的错误或荒谬的答案(Van等,2023;Thorp,2023)。使用AI模型时仍需谨慎,ChatGPT被当成“嘴替”或“文替”,数据的滥用或对知识的不完整性采用,将为错误信息的传播埋下风险和隐患。不专心的审稿人可能会被一篇由人工智能撰写的论文所欺骗,接受其漂亮、权威的散文(Van等,2023)。此外,ChatGPT很有可能通过产生误导性或不准确的内容引发危害,从而引起对学术错误信息的关注。例如,在COVID-19流行期间,医学期刊中错误信息的传播可能会带来重大的社会危害(Diseases,2020)。

2.ChatGPT容易引发科技与学术伦理问题

(1)面临科技伦理的“污染”与盲从

人工智能完备的问题包含科技伦理中对人类道德的衡量。ChatGPT初步具有道德判断力,它会注重政治正确和道德伦理尊严(令小雄等,2023)。ChatGPT利用其学习到的伦理价值,验证使用者的提问是否合法合规或符合道德伦理规则,甚至有时会直接拒绝回答某些伦理上有偏差的问题。ChatGPT代表的人工智能技术的进化,也是科技伦理自身的跟进和不断完善。而由于伦理的学习成本巨大,一旦 ChatGPT在语料库中受到“伦理的污染”或“投毒”,其重新认知新的伦理判断需要一个很长的过程。尽管 ChatGPT在大多数情况下努力保持道德实践的理性主义态度,但随着各种不良测试者和调教者的质疑及恐吓等语言威胁,ChatGPT在某些时候无法确定什么才是真正正确的伦理。

人工智能的出现使人的思想能力逐渐陷入停滞,技术被垄断在少数绝对强者手中,产生严重的阶级固化和技术壁垒。当以ChatGPT为代表的人工智能盲目服从命令而不质疑其伦理偏见或不具备预设道德伦理的正确导向时,将会产生科技伦理困境。人的从众心理将转变为从AI心理,在广泛的社会语境中被认为是个性化的叙事方式被AI以潜移默化的方式改变,语言的长期改变会渗透其情感认知、伦理行为和整体行为的走向,对人们的价值信仰、态度和行为产生重要影响。这既是值得关注的科技哲学问题,也是伦理问题(令小雄等,2023)。

(2)引发一个新的学术伦理命题

ChatGPT本身确实有其进步性的一面,它可以协助学者更好地完成日常工作(Gordijn & Have,2023)。但作为一种研究工具,它存在一个明显的缺点,尤其是在科学诚信方面,过度依赖ChatGPT生成的内容可能会引起抄袭、欺诈和版权侵权的风险。令小雄(2023)指出,如果让ChatGPT以诗人李白的风格写一首诗。虽然,ChatGPT能够生成一首新诗,但其中的语句与现有的古诗相似,从而可能带有“学术伦理”或“抄袭”痕迹。同时,学生可能会使用ChatGPT制作本不属于其自身的作品,从而导致抄袭和剽窃等不道德行为的出现,进而影响教育和学术生态。这种行为将导致成果并不能反映学生的能力和知识,而只能反映语言模型的处理能力,这将形成不平等的竞争环境,导致一些学生在评估中拥有不公平的竞争优势。此外,Else(2023)认为ChatGPT是根据过去的信息进行训练的,而社会和科学的进步往往来自于与过去不同的思维或开放思维,过多使用将导致批判性思维和创新能力的匮乏。更深远的学术伦理问题在于,ChatGPT有能力撰写在权威期刊上通过同行评审的论文。从长远来看,人工智能驱动的系统甚至可能完全接管整个科学研究领域。国际象棋领域中AlphaGo就是一个典型的例子。此外,也有的作者试图将ChatGPT作为合著作者来避免以上的学术伦理问题。在已发表的论文中,ChatGPT至少获得了四份作者署名(Stokel-Walker,2023)。但包括《Nature》在内的期刊表示这样的做法是不被接受的,原因是任何作者署名都表示其对作品负有责任,而人工智能无法承担这样的责任。

针对以上产生的学术伦理问题,Van等(2023)认为这种技术的使用是不可避免的。因此,“禁止”是行不通的,学术界应该就这种潜在的颠覆性技术的影响讨论应对策略。一是坚持工人检验:由专家推动事实核查和核查进程。二是加大LLM的透明度:首先在学术领域研究论文中的作者贡献声明和致谢应清楚具体地说明作者是否以及在多大程度上使用了LLM相关的人工智能技术;其次,在LLM开发领域,几乎所有最先进的会话AI技术都是少数拥有开发资源的大型科技公司的专利产品(Rudin,2019)。鉴于少数科技公司在搜索、文字处理和信息获取领域近乎垄断,应该考虑开源人工智能技术的开发和实施。第三,应加强学术界之间的交流,呼吁召开一个关于开发和负责任地使用LLM进行研究的国际论坛。LLM可能是一把双刃剑。它们可以帮助创造公平的竞争环境,例如消除语言障碍,使更多人能够写出高质量的文本。但可能的情况是,与大多数创新一样,高收入国家和享有特权的研究人员将很快找到利用LLM的方法,从而加速本国的研究并扩大不平等。

3.带来价值观扭曲、偏见与渗透问题

当前ChatGPT存在着潜在的安全隐患。如果对输出内容未经控制,它很容易被利用产生仇恨言论和垃圾邮件(Stokel-Walker & Van,2023)。密歇根大学安娜堡分校科学、技术和公共政策项目主任Shobita Parthasarathy表示,除了直接产生有害内容外,人们还担心ChatGPT将从训练数据中嵌入创建者的历史偏见或对世界的看法,比如特定文化的优越性。特别是创建ChatGPT的公司来自这些文化,他们可能很少尝试克服这种系统性的、难以纠正的偏见。因此,Edwards建议,现有的关于歧视和偏见的法律(以及对人工智能危险使用的计划监管)将有助于保持LLM的诚实、透明和公平。

四、ChatGPT的潜在威胁与未来发展趋势

ChatGPT作为新一代人工智能技术驱动诞生的自然语言处理工具,标志着生成式AI领域技术的重大进步。在这一进步背景下,我们应认识到其并存的机遇与风险。一方面,新技术的出现常常会带来新的生产力需求,推动社会的不同程度变革,促进文明的发展。另一方面,新技术应用有缓冲期,期间可能包括对技术本身的完善改进,对技术应用方向的调整,以及建立适应新技术应用的机制等多方面内容。在这种背景下,我们将就以ChatGPT为代表的人工智能产物从潜在威胁和未来发展趋势两个角度作进一步探讨。

(一)ChatGPT对经济社会的潜在威胁

纵观人工智能技术发展历程,从解决确定性问题的封闭式传统人工智能到通过交互学习解决不确定性问题的现代人工智能,其属性已逐渐从早期的机器化转向类人化。如今的ChatGPT等产品,正是其具有更多类人属性的体现。然而,当机器拥有越来越多的人性特征时,必然会对以人为主体的现代社会造成某些层面的冲击。

1.ChatGPT的快速产业应用给传统产业带来难以估量的调整成本

以ChatGPT为基础的拓展场景应用,无疑会带来新的行业变革,重塑社会格局。目前ChatGPT已经在教育、科研、传媒等多个领域显现出惊人的影响力,也展现出对某些职业强大的替代能力。大型语言模型与传统产业的深度交融,能够可预见地通过数字化赋能推动产业的转型升级,节省人工成本,提高生产效率。但同时,软件、媒体、翻译、分析、服务等传统行业的高度自动化,不仅需要负担“模型”高昂的训练成本,同时将导致就业空间进一步压缩。大批职业人群结构性失业,加重社会负担。不过参考以往的经验,类似这种新技术应用的最终结果通常是会为人类社会创造更多的就业机会和新型组织。然而,新的稳定格局形成以前,我们的经济社会能否成功地负担这种调整成本(Ajay Agrawal等,2022),以及最终给这些传统产业带来的是新生还是摧毁,尚未可知。

2.ChatGPT带来的认知污染可能会引发知识和价值观偏差

ChatGPT作为一种基于语言模型的聊天互动工具,其广泛应用首先将对以语言为基础的文化知识交流体系产生直接影响,其反馈学习机制和转移学习能力形成了对使用者的知识大融合,数据输入端的内容将可能影响到任一输出端的生成。在海量用户的数据交互中,ChatGPT极快的学习生成速度会极大地加快信息传播效率、扩大传播范围,而其中所包含或生成的偏见性、误导性信息也将以更快速度、更大规模潜移默化地对用户群体的意识形态、知识学习等方面造成负向引导,形成认知污染,从而带来社会不稳定因素。

3.ChatGPT对现有社会道德法律体系所产生的真空地带会给社会稳定带来风险

当相关技术深度融入人类生活时,必须考虑当前社会群体对新技术运行下的新社会规则的适应性。特别是伦理和法律方面,对于新技术赋能的新产物仍存在约束空白。当人工智能开始能够做出更多的类人化思考、类人化行为时,将面临更多的基于人性的问题。诸如,AI创作的知识产权享有、 AI参与的违法事件责任界定等。如果现有的社会道德法律体系不能在相关层面及时跟进、监督、规制,那么不受制约的AI必将为社会健康稳定发展带来极大的隐患。

4.ChatGPT的应用对经济社会秩序安全带来危机

相关研究认为,“机器介入且改变人类生活和社会秩序是现代社会的基本特征之一”,人工智能作为具备革命性的自主学习能力及自我进化能力的一种新的机器形态,对人类生活和社会秩序产生了颠覆性的影响,而这种影响可分为“失业问题”与“隐私问题”(近期)、“歧视问题”(中长期)与人类命运问题(远期)三类(潘恩荣等,2022)。其一,短期来看,一方面是隐私问题,当面对超大用户群体或低容错性的重大系统任务时,ChatGPT很可能出现对关键隐私信息的识别、保护不足或漏洞而造成信息泄露,从而导致严重后果;另一方面则是新技术的应用导致传统岗位的淘汰所带来的失业问题,短时间内大范围的人口失业造成的社群压力和恐慌,将深刻影响社会运行的稳定性。其二,中长期来看,歧视问题将可能因 ChatGPT模型算法的固有缺陷而在频繁的数据交互过程中形成并不断积累扩大影响,最终反馈至用户群体,从而放大社会矛盾点,引起争端。其三,远期来看,则是随着人工智能发展阶段的改变而带来的有关人类命运的伦理危机问题。相关学者认为,根据主体条件和意识条件的不同,人工智能伦理问题的探讨可以分为三个阶段。当人工智能体处于工具和仅为具有自我意识的个体这两个阶段时,仍适用于人的伦理学和以人为中心的伦理学,而当其同时满足意识条件和主体条件而进入主体阶段时,人工智能体将在本体的层面上拥有心灵,在现实的社会交往中有着自身的话语,与我们有着对称、平等、互惠的关系,成为“一个不可还原或消除的‘他者’”,此时则需要思考以“人格”为中心的伦理学(周靖,2023)。随着以ChatGPT为代表的新一代人工智能技术的发展,AI产品的计算方式、思考能力、劳动能力以及社会身份认同将逐渐趋人化,具备更多的自主性和反思性,甚至可能基于某种运算规则做出合理但却损害人类利益的决策,从而不断冲击人的主体地位,直至进入主体阶段,产生对人类地位和生存的潜在威胁,特别是,当我们沉浸在对技术快感的依赖和盲目崇拜中,逐渐放弃思考力、创造力,整个社会高度依赖人工智能辅助运行时,如何面对人工智能危机更是值得深入思索的问题。

(二)ChatGPT的未来发展趋势

当前来看,相比于以往的人工智能产品,ChatGPT凭借在学习能力、数据处理上的优势实现了较大的智力飞跃。随着技术逐步趋于成熟,ChatGPT也渐渐展露出其诸多的潜在应用可能。接下来,我们将着眼于ChatGPT未来的自身技术完善和进一步应用进行讨论。

1.ChatGPT自身技术和外部环境趋于完善

首先,提高信息过滤能力。ChatGPT模型尽管在当下展现了良好的学习产出能力,但在特定情况下仍可能难以避免重复性、偏见性和错误性,生成过时的、不准确的或有误导性的文本内容。并且,在广泛快速的传播过程中,复制甚至放大其不良影响。在未来正式的规模化应用之前,应通过算法改进、模型优化以及介入人为监督等方式,对于输入端的信息,加强来源识别、内容审查和标记,并针对虚假性、危险性等恶劣性内容做出警示或拒绝反馈。同时,在数据处理和学习过程中,通过对训练集、奖励模型等的优化实现对类似低质量信息的进一步甄别摒弃,从而不断提高生成内容的可信度和合法性。

其次,重新思考和界定知识产权归属问题。目前,ChatGPT的内容生成能力已经使其能够合格完成包括撰写邮件、简历、视频脚本、文案、翻译、代码甚至论文在内的多种任务。就这一点而言,我们应该继续努力,以达到以下两个目标:第一,要解决ChatGPT生成内容涉及的知识产权侵犯问题,这需要 ChatGPT在接下来的应用完善中趋向更开放化和透明化,以确保明晰创作来源;第二,需要探讨ChatGPT生成的作品是否具有知识产权的问题,目前看来各界都倾向于拒绝ChatGPT的著作权、署名权。然而,当ChatGPT未来能够根据合作用户的提示作为辅助工具贡献更具价值的内容,且在科研、创作成果中占据更重要的组成部分时,或许应当对此做出重新思考,同时还要重新思考AI作品权利的真正归属是合作用户、开发者或是其他交互用户的问题。

最后,注重保护隐私信息的安全。根据ChatGPT团队目前发布的隐私政策,该系统会收集包括沟通信息、社交信息、技术信息、日志数据、使用数据等在内的多种用户个人信息并进行分析和进一步跟踪(且不响应DNT信号)。这就意味着一旦发生数据泄露,其中包含的用户信息以及基于这些信息分析形成的用户特征信息将存在被恶意利用或恶意攻击的可能。因此,专门针对安全性的测试和优化亦至关重要。其中,一方面是算法设计层面,要注重检验在训练学习和内容生成过程中是否使用了库内所含的涉及隐私的重要数据并用于不合理的输出;另一方面是系统维护层面,通过例如模拟攻击等手段,检测识别并及时修复潜在的漏洞,以提高系统对不同类型攻击者的鲁棒性。

2.以“ChatGPT+”的应用场景落地

在教育领域,ChatGPT不仅带来了挑战,同时也成为了一种高效的辅助工具,可嵌入教学中。从教学者角度来看,可以借助其检索、翻译、分析、生成功能更有效率地完成课堂设计。另外,通过与ChatGPT的模拟交互,可以不断调整优化教学思路。从受教育者角度来看,ChatGPT可以作为一个更强大的聊天式智库,通过对话为用户提供知识指导、时间管理、技能协助等方面的伙伴式帮助。

在科研领域,部分科研工作者已经开始使用 ChatGPT和其他大型语言模型来协助总结文献、起草和改进论文、撰写演讲、统计分析、编写代码以及确定研究差距等。在未来,这项技术或许将在科研领域有更为广泛的应用,包括但不限于设计实验、撰写手稿,乃至进行同行评审。此外,除了帮助解决一些繁琐重复的工作任务外,ChatGPT的强大计算能力也许能够为科研工作者提供更有创造性的灵感。

在医学领域,ChatGPT信息检索和数据分析能力同样能够发挥巨大作用,其强大的自然语言处理能力赋予了它更多的情感和智能。因此,它可以完成流程优化、辅助问诊、陪护与检查等任务,协助维护医患关系,使医生能够将更多精力投入到更专业的医学决策和医学操作中。同时,ChatGPT还可以通过更富情感化的频繁交互,取得患者信任、更敏锐地捕捉病情变化以及对病患心理起到一定的抚慰作用。当然,这必须严格遵守患者隐私管理的相关法规。

在艺术创作领域,ChatGPT表现出了相当出色的理解力,能够做出一些创造性的表达。随着这种创造性的深入开发,也许将在影视文学创作、平面设计等创造性领域找到更多的应用,特别是在基于范式化的要素重组以及规模化创作方面,将可能展现出比人为更好的表现。

在商业领域,更强的算力和更优的算法将有助于快速有效地对商业数据进行分析评估,从而给出更高质量的辅助决策方案。此外,借助ChatGPT的检索能力和内容生成能力,将实现更精确的商业信息检索和更高效率的商业资讯创作生成。同时,ChatGPT的理解力将有助于打破信息壁垒,促进商业沟通与交流,帮助双方快速有效地达成商业合作。

在工业领域,ChatGPT等人工智能产品技术有望通过进一步的突破和完善成为产业基础,带来新的生产力和生产方式,引发以人工智能为核心的新一轮工业革命,深刻改变传统工业模式。ChatGPT将参与工业设计,优化运作流程,并结合图像处理、传感、区块链、元宇宙等技术概念提升研发、生产、质检、运输、服务等各个环节的自动化程度,强化机械性智能的同时,逐渐承担“工业大脑”的角色,推动社会关系和社会结构的变迁。

在服务业领域,ChatGPT已经能够很好地模拟人类对话,进一步地,未来其将能够提供更广泛、更真实、更优质的代人工服务,包括但不限于咨询、引导、销售等社交需求场景。一方面,ChatGPT通过用户数据采集与分析,能够全面地知悉用户特征和语言习惯,从而提供更加人性化、精准化、个性化的服务。另一方面,人工智能产品能够承受更持久的工作时间,保持一以贯之的态度和精力,而不产生消极倦怠情绪,实现服务效率、质量以及工作量的整体大幅提升,为客户提供更舒适贴心的体验。

在社会治理领域,ChatGPT作为人工智能技术的新产物,有望进一步推动升级数字政府的建设,通过更优秀的数据处理和分析能力,优化政府信息化架构,提升政务处理效率,扩展政府管理空间和渠道。同时,借助其优秀的表达能力和交互能力可以更好地维系政民关系,降低社会治理成本,一方面,ChatGPT能够代表政府对话,答疑解惑,帮助民众更全面深入地理解各项政策;另一方面,政府能够通过 ChatGPT收集的数据信息,更好地了解社会运行情况和民众需求,从而提高政务服务质量。

在智能办公领域,具备“人性”与“物性”双重特性的ChatGPT,将普及成为可靠的智慧办公助手,除了在信息检索、数据处理分析等方面的优势外,尤其是在各类已有办公系统的使用中,我们将无需面临直接系统操作的困难。ChatGPT将依托其强大的自然语言处理能力,将人的需求更准确地转化为系统语言传达给办公系统,代替人去与系统交流,实现办公的简洁化、精准化、高效化。

在应急管理领域,ChatGPT将在监测预警、方案设计、救援指挥等多方面发挥作用。首先,通过日常指标数据的收集分析,结合相关评价标准,及时评估风险,预测灾害;其次,根据环境数据变化和实际情况,动态生成防范应对方案;最后,在现场救援中,快速判断最佳流程和路径,形成救援人员和物资的最优调度方案。

在智慧养老领域,人工智能产品亦将大有可为,特别是像ChatGPT这样的便捷交互式的、“智多星”式的新一代人工智能产品。随着我国老龄化程度的深度加剧,养老产业将进入爆发时代,基于人工智能技术的智慧养老服务将迎来新的机遇,特别是面对老年人的生活需求和精神需求,ChatGPT的嵌入应用,将发挥健康提醒、知识供给、生活贴士、智能设备操作指导和聊天抚慰等积极作用,同时提供“一站式保姆”和“情感式陪伴”的高质量养老服务。

五、结论与监管政策建议

人工智能技术的进步和应用为我们展现出更多的可能性,也体现出技术的不可控性和动态性。本文从经济与社会视角对以ChatGPT为代表的新一代人工智能技术进行深入分析,研究得出以下结论:

(1)机遇与挑战。对于人工智能产业本身来说,ChatGPT加速了AI时代进程,推进了生成式AI的广泛布局。同时,其也凭借更智能化、人性化的功能对谷歌搜索引擎等传统人工智能产业形成挑战。在劳动力与就业方面,相关技术的突破和完善会推动劳动力市场的结构性演进,知识和技能的更新将在就业竞争中占据更重要的优势。与此同时,ChatGPT优异的自然语言处理能力赋予教育领域全新的交互模式,为现有的教育方式、侧重点和评价标准的改进带来新的思考空间,将推动教育体系的深刻变革。就科学研究与科技伦理而言,类似大型语言模型的应用能够辅助快速解决非核心任务,提高科研效率,但也存在虚假传播、剽窃抄袭、价值渗透等学术伦理风险。

(2)威胁与发展。一是潜在威胁方面,本文揭示出ChatGPT的进一步发展和深度应用可能给经济社会带来沉重的调整成本,同时可能产生认知污染、算法歧视、信息泄露、法律真空失管、人类主体地位的模糊与冲击等潜在风险。二是未来发展趋势方面,ChatGPT等新一代人工智能技术有望在信息过滤、知识产权和信息安全方面逐步趋于完善,在教育、科研、医学、艺术创作、商业、工业、服务业、社会治理、智能办公、应急管理、智慧养老等领域实现更多的“ChatGPT+”应用场景落地,展现出更多智能作为。

为了更好地规范人工智能技术研究应用,有效防范应对风险挑战,促进相关产业健康有序发展,我们对类ChatGPT的新一代人工智能技术的政策制定完善提出以下几点建议。

(1)推动新一代人工智能产业发展

一是加强产研结合,促进技术创新。当前,人工智能作为我国战略性新兴产业,已成为新的增长引擎,也是未来我国深入发展数字经济的重要组成部分。因此,进一步激发创新活力、优化创新模式、推进新一代人工智能技术的突破完善有着必要性意义。要着力构建产研融合的协同创新体系,加大人工智能领域资金投入和资本汇集,广泛设立国家级人工智能项目,通过倾向性政策鼓励企业创新和相关人才培养,综合利用重点科研机构和大型科技企业的双重优势,拓深基础理论研究,攻破技术应用难点,加快促进相关技术的不断突破,提升产业核心竞争力。

二是加快场景落地,打造产业生态。人工智能的广泛应用将成为未来经济社会发展的重要环节,随之而来的行业标准制定权和市场占有头部效应也将成为影响各国在人工智能领域竞争的关键因素。因此,广泛布局人工智能产业应用、加速实施应用场景落地、实现新一代人工智能技术和经济社会发展的深度融合成为重中之重。一方面,要促进人工智能技术与传统行业的嵌合应用,推动相关产业的转型升级,营造智能业态;另一方面,要在重大应用场景中反复打磨技术,探索建立有效的试错机制,通过规划建设人工智能技术应用试点和场景应用示范区,实现基础理论研究向技术实践应用的成果转化,尽快掌握产业话语权和市场主动权。

三是加大数据融通,为新一代人工智能技术发展提供保障。以人工智能等前沿技术为驱动的数字经济,相应地,也加快了人工智能相关产业的进步与发展。其中,数据资源作为关键要素,参与社会生产经营活动并带来价值,通过供给、流通和应用过程形成的数据要素的高效融通是释放数据价值、促进数字经济发展的关键(梁宝俊,2022),也是带动相关产业发展的重点。因此,要不断提升互联网宽带和5G普及率,加快研发6G网络,实现不同个体、不同产业以及不同领域之间数据的规模集成和共享共融共创,加快构建全国统一数据要素大市场。同时,注重网络生态和信息资源治理,完善渠道管理和内容审查,提高信息传播质量和数据应用价值,为新一代人工智能技术发展和“数智时代”的全面到来提供发展沃土。

四是加深开放合作,实现共赢发展。互联网技术的出现曾极大地加快了全球化进程,如今,新一代人工智能技术的持续发展和应用也将为各个国家地区带来更紧密的联结和更深刻的影响。因此,人工智能产业的发展需要兼顾国内研发推广和国际战略布局。要主动融入全球科技创新网络,积极统筹配置国内国际资源,加强国际科技交流合作,深化人工智能技术共研共享共用;同时,敏锐捕捉国际需求,加快海外市场开发,瞄准全球推出兼具生产标准化和服务个性化的新一代人工智能产品,提升我国人工智能产业的国际影响力。

(2)完善新一代人工智能监管规制

一是构建由政府主导控制、其他利益相关者协调运作的监督框架。随着人工智能技术的不断突破,与人类生活的嵌合程度不断加深,其因失控对人造成伤害的可能性越大、伤害程度更深。政府作为社会管理的主导者,应当成为系统数据库的主要控制者、管理者和监督者,站在维护公众利益的立场,为社会成员的数据信息安全提供更为有力的保障,并通过控制保持训练数据的高质量,引导传递正确的社会价值观;同时,广泛借助社会相关机构或人士专业知识技能和特有视角发现问题、解决问题,确保监管的全面性、连贯性和有序性。

二是进一步完备人工智能立法监管,明确权责边界。新一代人工智能大多基于黑箱系统,往往是不具备可解释性的,其行为后果在法律层面很容易出现权责界定模糊的问题。因此,应从立法角度出发,完善监管处罚的适用性。首先,对于开发者来说,应明确透明度要求,确保系统记录的可追溯性,并在必要时一定范围内公布相关数据;其次,对于人工智能产品本身来说,应根据其算法机理、自主性程度,探索明确不同AI产品的法律权限范围,并在必要时通过合理的方式承担相应的法律责任,杜绝违背社会伦理和道德法律的产品研发和行为设计;最后,对于使用者而言,应结合人工智能技术在相关领域的应用情况,改进诸如知识产权、隐私侵犯等现有法律条款,严格约束用户借助AI产品的功能而实施的恶意行为。

三是建立风险分级评估体系,构建全过程覆盖、多方参与的风险管控机制。从“基于风险的路径”视角来看(程莹等,2021),根据人工智能技术发展程度和具体应用阶段的不同,所体现出的风险水平和风险侧重也有所不同。一方面,应研究确定合适的评价指标,对AI产品风险作出分级分类,实施差异化监管,尤其是在制定相关标准时,除了可参照已有的共性标准划分外,应更多地考虑中国国情,因地制宜地做出调整改进。另一方面,有必要基于风险对人工智能产品进行全周期监管的制度设计,预先识别分析可预知的风险,设置市场准入门槛,由政府、企业、用户以及相关机构共同参与加强市场监督,同时制定适合AI产品的召回、追责等应对措施和制度等。

四是探索AI监管沙盒机制,推动技术与政策的双向适应。目前,人工智能产业正处于蓬勃发展的阶段,相关监管措施正在摸索与实践中不断调整完善。对此,我们可以通过搭建监管沙盒,一方面,帮助企业提前评估风险、摸索市场、改进设计,进一步提高容错性,赋予其更多的创新机会和可能;另一方面,相关机构提前介入监管,可以更全面深入地了解技术优势和弊端,并结合实践,制定完善更合适的政策,降低监管的不确定性和滞后性。

最后,需要指出的是,及时跟进适应新一代人工智能技术冲击带来的社会变革,合理平衡技术应用和社会伦理的作用关系,防范应对潜在威胁,探索行之有效的监管机制,充分发挥政策弹性,在完善监管的同时鼓励创新,积极迎接和布局人工智能时代,仍是我们需要慎重思考的问题和未来一段时间的努力方向。

本论文在完成过程中也要特别感谢李珈、郭宗颖、刘云翔、温露露、王博、霍雨欣、谢美辰及李珂垚的助研工作。

    进入专题: ChatGPT   人工智能  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 经济学 > 宏观经济学
本文链接:https://www.aisixiang.com/data/151593.html
文章来源:本文转自《产业经济评论》2023年第3期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统