生成式人工智能的迅猛发展引发海内外热议。有研究机构认为,生成式人工智能代表着人工智能技术演进的必然方向,将深刻改变人类社会的发展前景。那么,生成式人工智能将给我国意识形态安全带来哪些风险,我们又该如何应对这些风险?只有准确研判生成式人工智能引发的意识形态风险,理解生成式人工智能引发意识形态风险的内在原因,应对其对意识形态安全的复杂影响,才能更好地做好新时代的意识形态工作。
一、生成式人工智能引发的意识形态风险类型
生成式人工智能正在给我国意识形态带来全方位、多层次、历史性的影响。它既为各种意识形态的提取和传播带来便利,又会造成信息失真、隐私泄露、有毒有害意识形态传播等风险,从而重塑各类意识形态的表达结构和话语体系。
意识形态信息失真风险。意识形态是在一定事实、概念、判断的基础上建立起来的思想体系。信息失真往往会造成意识形态自身科学性和吸引力的削弱。在政治制度、法制司法、文化生态等人文社会科学领域,生成式人工智能有可能产生知识错配、信息混剪、常识错误、低质量信息垃圾,甚至给出反道德反社会的有毒有害的回复内容,从而引发意识形态信息失真风险。尤其是在用户输入指令具有模糊性的情况下,生成式人工智能很难通过几轮指令交互即可生成精准无误的信息内容。如果用户输入的关键词涉及多义词、近义词、多音词,用户经过多轮交替指令输入,往往仍然难以获得令人满意的答案,生成式人工智能甚至会给出多种内在逻辑冲突的答案,出现“李逵李鬼分不清”、张冠李戴的低级错误。如果用户过度依赖生成式人工智能,那么,人工智能所提供的回复内容将会对用户的既有观念产生负面影响,甚至引起用户价值观念和行为准则的冲突和混乱。
意识形态隐私泄露风险。意识形态隐私泄露风险是指用户在不知情的情况下泄露出自己不想泄露的意识形态信息,或者相关隐私信息被生成式人工智能通过其他技术手段推断出来,从而导致个体或集体意识形态方面的关键信息被迫公开的风险。用户在使用生成式人工智能过程中可能会泄露自己的个人隐私信息或者一些组织乃至国家的机密信息。个人信息的泄露会对个人的心理健康、人身安全造成影响,国家机密或者商业机密的泄露则可能会危及国家安全和企业安全。2023年3月29日,英国政府科学创新和技术部专门推出的规范使用生成式人工智能的《促进创新的人工智能监管方法》明确指出,“人工智能有可能对隐私和人类尊严构成风险”,“家用联网设备可能带来个人和家庭用户隐私泄露的风险”。从生成式人工智能的运算流程来看,几乎所有的推荐算法都包含数据采集、数据存储、模型训练、算法推荐等环节。在数据采集环节,生成式人工智能能够准确记录用户的输入指令、搜索记录、APP使用浏览时值和频次等隐私信息,以助于进一步构建用户肖像、判断用户真实的意识形态兴趣和需求。在数据分析环节,生成式人工智能通过一系列算法,对前期采集的数据进行归类处理,进一步补充前期数据,更加精准地了解用户的意识形态态度。当前,不少网民普遍缺乏对个人隐私信息的保护意识,在使用生成式人工智能过程中很容易全域开放包含社交账号、居住地址等多个方面的个人隐私信息,造成意识形态信息泄露风险。即便用户未直接泄露私密信息,ChatGPT等生成式人工智能也能够在不断的学习过程中形成强大的推断能力,自行推断出有价值的意识形态信息,掌握用户对意识形态的真实态度,这比传统的调查机构或情报机构都更加高效、更加隐蔽,也更加难以防控。
意识形态格局重塑风险。一个国家同一时期内往往同时具有多种意识形态,既有主流意识形态,也有非主流意识形态。主流意识形态和非主流意识形态的力量对比是国家政治安全的风向标,主流意识形态和非主流意识形态之间力量的转化则是政治秩序变动的信号。生成式人工智能的快速扩张和广泛应用,为改变主流意识形态和非主流意识形态的力量对比、重塑国家内部意识形态格局提供了机会。一种意识形态如果能够迅速进入网络空间领域传播,就能够进入生成式人工智能分析范围,进而成为生成式人工智能的推荐对象和传播对象。相反,即使是社会主流意识形态,如果不能进入生成式人工智能数据库,或者不能获得理想的用户反馈,就会在算法筛选机制中被边缘化和弱化,从而最终被生成式人工智能所“遗忘”或“屏蔽”。各种意识形态要获得更多的社会受众,就必须进入生成式人工智能的信息采集、分析和推荐流程,否则就会被弱化或淘汰。从这个意义上讲,生成式人工智能的兴起和应用,相当于开辟了各种意识形态竞争的新赛道。现有意识形态生产和传播方式将被改写,主流意识形态话语将被削弱,而各种非主流意识形态将会迅速占领主流意识形态的传统地盘,甚至各种有毒有害意识形态将会大行其道。目前,人工智能领域尚未在数据训练过程中对有害言论风险产生的根源进行有效遏制,对于跨域政治制度和意识形态分歧的管控更是听之任之。因此,在生成式人工智能进化过程中,意识形态格局重塑的风险已经渐露机芽。
二、生成式人工智能引发意识形态风险的原因分析
作为全球历史上增长最快的消费者应用程序,生成式人工智能引发上述意识形态风险的原因是多方面的,既有人工智能技术不完善、不成熟的客观原因,还有意识形态发展变化的理论原因。
生成式人工智能对模糊语言的推理能力不足。作为高级智能聊天机器人,生成式人工智能通过直接对用户下达的指令进行计算即可实现人机自然交互,甚至还能进行一定程度的逻辑推理。但在这一过程中始终存在两个难题无法规避。一是用户输入指令本身的模糊性。自然语言天生就具有模糊性的特点,特别是和意识形态关系密切的人文社会科学等领域,不同思想体系往往使用不同的概念、术语、判断和表述方式,即使是同一概念也往往因为语境不同而具有不同的内涵所指。用户在向生成式人工智能提问之前,往往缺乏足够的背景信息,难以使用精准的定义、术语对问题进行准确描述。尤其是对专业领域的问题进行提问时,用户处于背景信息真空状态,输入指令具有较大模糊性,这直接影响生成式人工智能回复内容的质量。二是用户输入过程中的情感表达。个体指令的输入过程也是情感表达的过程。生成式人工智能是基于人类输入指令而作出反馈的强化学习模型,尽管AI技术不断进步,但在情绪识别、情绪理解等方面仍然能力不足,难以完全具备情感推理和情感交流的能力。人机交流中情感信息的流失,导致生成式人工智能对人类情感信息“视而不见”“见而不懂”。由于上述两个难题的存在,生成式人工智能不可避免地会造成信息失真等风险。
生成式人工智能的数据库具有根深蒂固的偏见和歧视。生成式人工智能是一种无感知的语言模型。各类意识形态通过编码程序,成为数据库海量参数和训练数据的一部分,当用户输入指令以后,生成式人工智能对输入数据进行编码处理,基于前期训练数据的出现频率和语言模式对各类数据参数进行调用。这一无感知的信息编码、存储和调用过程为各种意识形态的传播提供了貌似平等的契机。而实际上,生成式人工智能的训练数据具有根深蒂固的偏见和歧视,在此基础上生成的语言数据库也继承了这种偏见和歧视。生成式人工智能数据库所存储的数据,90%以上是英语媒介的数据,法语、德语、西班牙语等世界其他民族语言的数据内容占比不足10%。那些不能通过英语等世界通用语言表达和建构的意识形态在输出过程中将被边缘化。不管什么国家、种族和信仰的用户实际上都是接受了英语蕴含的意识形态,这不仅是意识形态偏见和歧视,甚至是现实世界中意识形态霸权在智能领域的延伸和折射。
生成式人工智能“生产消费合一”的特征躲避了意识形态“把关人”。任何群体传播过程都存在“把关人”现象,只有符合群体规范或把关人价值标准的信息内容才能顺利通过“把关人”的审核进入传播链条。在意识形态传播的传统链条里,各级记者、编辑、监制、审核员都发挥着意识形态把关作用,有效地规避着意识形态风险。但生成式人工智能超越了传统的强化学习框架下数据交互呈现的模式,使用户跨越了审核把关环节,同时兼具了意识形态内容生产者和消费者两种角色。意识形态传播传统模式中的“把关人”随着传统媒体的式微而逐渐退出,生成式人工智能则基本躲避了传统意义上的“把关人”,把关环节几乎完全被跨越或者被忽略,“消费者”可以根据自己的“兴致”自由地选择信息,如何“把关”完全由自己的一时好恶决定。生成式人工智能“把关人离场”“生产者和消费者合一”的新特征导致智能技术对人类隐私的无限侵犯。没有“把关人”出面预警或处置,用户意识形态信息便成为“公开的秘密”,消极负面乃至有毒有害的意识形态也有机会沉渣泛起,主流意识形态所主导的传统意识形态力量对比格局面临重塑。
三、防控生成式人工智能引发的意识形态风险的对策选择
从演进趋势来看,生成式人工智能符合科学技术演进规律;从市场前景来看,生成式人工智能具有庞大的潜在市场和光明的应用前景。生成式人工智能的普及化应用趋势已经不可遏制,其带来的意识形态风险也已经无法回避,只有未雨绸缪地进行规划部署和风险控制,才能有效降解风险、趋利避害。
加强信息“输入端”的风险管理。生成式人工智能拥有强大的基座模型,在大规模无标注文本数据上进行大规模数据训练,使数据信息得以高效呈现,从而展现出强大的文本理解能力。要防范化解生成式人工智能带来的意识形态风险,要从输入端规范信息数据的采集和标注。要探索设计全社会范围内信息数据分级制度,将社会每日新增信息进行分类,划定为不同的风险级别,规范理顺信息数据入网渠道和入网标准,防止未经保密处理的信息数据进入生成式人工智能分析范畴,从数据信息源头上减少有害信息进入生成式人工智能数据库。尤其是对那些涉及重大政治敏感问题、公开宣传禁区、舆论争议话题、个人隐私的信息,应当重点加强保护。
加强信息数据“输出端”的风险管理。加快推进人工辅助安全审核模式。鉴于目前人工智能公司尚未开发出完备的内容甄别技术,暂时可以采取“机器+人工”双重安全审核、配合模块化识别和动态调整机制,降低机器审核的误报率。政府和行业组织应尽快促进人工审核服务在人员资质、业务流程和审核能力等方面形成统一的行业标准体系,提高人工安全审查能力和审查效率,最大可能地减少虚假、错误信息内容流出。针对目前各类资本涌入智能语言开发市场的乱象,政府要积极发挥应有的监督管理职能,尽快探索建立自然语言处理准入制度,严格规范人工智能语言处理研发市场。
规范生成式人工智能的应用场景。生成式人工智能应用场景丰富,可与多个行业深度融合。加快支持和规范生成式人工智能在商业领域的使用,在各个商业领域训练类似于ChatGPT的语言模型,再叠加个性化推荐模型,帮助ChatGPT类机器人商业化,为生成式人工智能技术的成熟提供经验借鉴,最终缩小我国在人工智能技术方面与欧美巨头公司的差距。探索建立由政府牵头,行业组织、高科技企业以及各类高端研发平台共同投入、相互协作的开发模式。鼓励和支持我国人工智能企业平等参与国际交流合作,弥补我国在算法、算力、芯片等方面的短板,围绕人工智能重大攻关项目加大资源整合力度,搭建数据资源共享平台,构建模型共建共享机制,减少低效无效投入和试错机会。
提高服务提供者的综合素质。生成式人工智能服务提供者在意识形态风险防控中具有重要地位。要推动生成式人工智能服务提供者系统提升企业内部从业人员的综合素养,尤其是从业人员的法治意识、职业操守和科技伦理素养,增强数据安全意识,引导技术向善,在国家人工智能安全监管技术和政策框架下,进行技术和产品研发,最大程度发挥技术作用,防范潜在风险。
优化生成式人工智能安全治理环境。督促各类经营主体从技术和管理等多个环节入手,提高生成式人工智能的意识形态表达能力,真正引导技术向上向善,这就需要着眼于长期人工智能安全治理环境的建设。加强人工智能教育工作。在国民教育体系中增加人工智能教育的分量,让人工智能新技术、新知识进学校、进学科、进课程,严把人工智能专业学生的政治关、人伦关、道德关,建立从业资格准入机制。探索多元的科普方式,及时把人工智能的新技术、新知识、新变化引入公共媒体,面向全社会开展人工智能安全教育,从而推动全民人工智能素养的提升。健全我国人工智能法律法规体系,明确算法备案和安全评估责任主体,细化数据标注和数据处理要求,创新人工智能监管手段,提高算法运用的监管水平,为生成式人工智能研发和应用提供完善的法治保障。
总之,随着AI时代的到来,生成式人工智能必然会在意识形态等多方面深刻影响人类社会发展的轨迹。我们在欢呼智能语言带来社会进步的同时,也必须高度警惕其对国家意识形态安全的挑战,针对新时代的意识形态风险,做好前瞻性谋划和系统性应对,积极引导人工智能工具服务于国家治理体系和治理能力现代化建设,引导人工智能为人类带来长远福祉。
【作者简介】李建柱,江苏省习近平新时代中国特色社会主义思想研究中心江苏省委党校基地研究员