段伟文:准确研判生成式人工智能的社会伦理风险

选择字号:   本文共阅读 10259 次 更新时间:2023-05-14 10:43

进入专题: 人工智能   ChatGPT  

段伟文  

 

近年来,数据驱动的人工智能及其社会应用取得迅猛发展,呈现出诸多具有颠覆性社会影响的创新前景,迫使我们不得不思考如何认识其可能带来的社会、伦理乃至安全风险,进而采取合理的应对之策。特别是继深度合成技术之后,基于大规模预训练语言模型的生成式与对话式人工智能在涌现出强大能力的同时也产生了巨大争议,需要我们在加速创新和有序发展之间作出更具系统性和预见性的研判。

从工程技术层面认识生成式人工智能的实质

从工程技术上讲,近期兴起的基于大模型的人工智能开启了对类人类智能的探索,虽然这还不是认知科学意义上的通用人工智能,但应该看到其中具有革命性的创新突破。认知科学意义上的通用人工智能是指机器人和智能软件及算法能够作为独立的智能体进行学习、认识和决策,甚至具有独立的自我意识。而当前出现的生成式人工智能是一个由人类和机器智能构成的巨型智能生态系统,实质上是通过工程和系统方法在人类智能和机器智能的复杂组合之上实现的。尽管如此,我们还是应该认识到其在工程技术和产业应用层面可能带来的革命性因素,看到与可能的突破性创新相伴随的高度不确定性。其中,有三个方面的问题尤其值得关注。

一是从用户体验上讲,生成式和对话式人工智能在人机交互的工程实现方面突破了一个临界点,意味着人工智能可以在较流畅的人机对话指引下做各种工作。二是在人工智能生成内容层面,大量实施了人机价值对齐工程,通过预训练和人工标注等工程方法,可以比较有效地调节和矫正生成内容中存在的价值观念冲突,进而实现对相关社会风险的控制。三是这一波生成式和对话式的人工智能刚起步,对其可能进一步涌现的创新强度、深度和规模作出准确判断还为时尚早,一旦其应用无处不在,的确难以预见其可能带来的风险,而这也是最近出现呼吁暂停相关实验的主要原因。

生成式人工智能带来的社会伦理风险

第一,生成式人工智能的广泛运用会强化目前已经显现的各种社会伦理问题。一是偏见和歧视。如果用于开发人工智能算法和模型的训练数据有偏见,算法和模型也会有偏见,从而导致生成式人工智能的回应和建议出现歧视性的结果。二是信息误导。人工智能语言模型所生成的对话可能会向用户提供不准确或误导性的回应,进而导致错误信息的传播。三是信息滥用。人工智能大模型及其预训练需要收集和处理大量的用户数据,其中必然涉及技术和商业保密数据以及国家安全数据,隐私数据和敏感个人信息可能会被滥用。四是虚假内容及恶意使用。尽管生成式人工智能目前还没有实现大规模商业化社会应用,但从信息网络媒体、虚拟现实和深度合成等技术的发展经验不难看到,生成式人工智能可能被用于制造不易识别的虚假内容,甚至被恶意使用,从而影响、干预和操纵社会舆论和政治过程。五是对个人自主性的干预。生成式人工智能在商业上可能被用来影响或操纵用户的行为和决策。

第二,生成式人工智能可能使知识生产方式发生根本性变革,不仅会对传统的知识产权带来颠覆性影响,还可能冲击工作方式和就业。

生成式人工智能对知识产权的颠覆性影响。目前,人工智能在艺术创作领域的应用受到了大量的侵权指控,但作为一种内容生成技术,不能没有数据作为原料,而其所生成的内容与生产原料存在区别,因此,是否侵权比较难以界定,并且会随着技术的发展越来越难界定。这不仅使按照现有法律应该得到知识产权保护的人类创作内容的保护变得越来越困难,并且对于人工智能生成内容的版权是否应该得到保护成为一个新问题。鉴于生成式人工智能是一种全新的内容和知识生产方式,其模型训练必须大量使用现有内容,而目前法律上对内容侵权的界定是在这种技术出现之前提出的,如果要发展生成式人工智能并对其实现有效监管,须重新界定其内容使用边界。

生成式人工智能对工作方式和就业的根本性冲击。生成式人工智能与人类高度类似的对话能力表明,它将使人机交互的便捷程度大大提升,各行各业现有的工作流程都可能因此得到简化,必然带来对现有工作内容的改变和工作岗位的挤压。特别值得关注的是这次被取代的可能是受教育程度比较高的专业技术人员,如文秘、咨询、翻译、文创、设计甚至医疗和教育等领域的人员可能面临失业。这实际上会导致大量专业技术人员教育投入的加速折旧,加大并形成新的数字鸿沟,造成规模更大和更复杂的社会问题。

在社会认知层面,可能因为过度依赖人工智能而导致将其视为知识权威、道德权威乃至精神权威等深层次的认知幻象。一方面,生成式人工智能进一步发展,很可能成为普通人日常生活中的人工智能助手,帮助解答知识、辨别是非乃至区分善恶。鉴于人工智能并不真正理解其所生成的知识内容以及对是非善恶的判断,而且会产生错误或随意堆砌和编造的内容,故对人工智能的过度依赖难免放大其生成的不准确内容和知识上的错误,甚至对社会认知产生结构性的负面影响。另一方面,生成式人工智能存在过度拟人化趋势,随着人机对话的场景应用日益普遍,可能会出现滥用的风险。其中,值得关注的是将对话式人工智能不负责任地用于教育引导、心理咨询和精神健康治疗,特别是用于青少年的情况。在目前人工智能并不能理解其生成内容的情况下,没有老师、家长和专家的审核与监督,不能采取以人工智能与青少年直接对话的方式实施教育引导和精神健康治疗。

第三,生成式人工智能的发展及其技术产业模式本身也存在巨大的争议。其中既包括治理层面的挑战,也包括其资源耗费对生态环境的影响等。鉴于以上对生成式人工智能社会伦理风险的认识,首先,在创新探索的同时,从国家层面制定研究创新和部署应用指南,以确保其研发和应用符合伦理和法律,促使其更好地造福社会和避害向善,使每个人都公平地享受科技创新的红利。2023年4月11日,为促进生成式人工智能技术健康发展和规范应用,国家互联网信息办公室起草了《生成式人工智能服务管理办法(征求意见稿)》。其次,加强对人工智能及其社会伦理影响的研究,推动相关知识的普及传播,引导人们正确地理解和使用这种兼具创新潜力和颠覆性风险的强大力量。再次,积极应对生成式人工智能对就业和教育带来的冲击,采取有效的政策措施缓解社会矛盾。最后,至关重要的是,构建人工智能驱动的科学研究和社会研究平台,为基础研究、应用研究和对策研究提供知识生产的工具和平台,以促进人工智能良性有序发展。

原载:《中国党政干部论坛》2023年第4期

    进入专题: 人工智能   ChatGPT  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 哲学 > 科学哲学
本文链接:https://www.aisixiang.com/data/142724.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统