姜育刚:牢牢掌握人工智能治理主动权

选择字号:   本文共阅读 78 次 更新时间:2025-12-31 23:44

进入专题: 人工智能治理  

姜育刚  

 

习近平总书记在二十届中央政治局第二十次集体学习时强调,“全面推进人工智能科技创新、产业发展和赋能应用,完善人工智能监管体制机制,牢牢掌握人工智能发展和治理主动权”。国家网信办发布的《全球人工智能治理倡议》明确提出,积极发展用于人工智能治理的相关技术开发与应用,支持以人工智能技术防范人工智能风险,提高人工智能治理的技术能力。这不仅需要加快完善人工智能治理的法律法规、政策制度、应用规范和伦理准则,同时应高度重视数据可信治理、模型内生可信、安全风险测评、应用全链路可追溯等人工智能治理技术的自主创新,构建“规则+技术”双轮驱动机制,积极应对人工智能技术快速发展带来的风险挑战,牢牢掌握人工智能治理主动权。

深刻认识人工智能治理的重要性和紧迫性

人工智能在赋能经济高质量发展、提升国家治理效能、改善民生福祉的同时,也催生了算法偏见、技术滥用、认知伦理等新型安全风险,这些风险不仅关乎个体权益、社会公平,更涉及国家安全、数字主权乃至人类文明走向。因此,加强人工智能治理已成为掌握未来发展主动权的重大战略议题。

当前,人工智能技术迭代持续加速,从大语言模型向多模态模型演进,从简单推理迈向深度思考,其应用已广泛融入经济社会各领域,深刻改变人类生产生活方式,更加速从数字空间延伸至物理世界,具身智能成为全球科技竞争的战略高地。通过自动驾驶、智能机器人等载体,人工智能将主动、直接作用于现实环境,其决策与行为将对人身安全、公共秩序乃至国家安全产生实质性影响,加强治理显得尤为紧迫。

坚持“以人为本、智能向善”的治理理念

习近平总书记提出要“坚持以人为本、智能向善,在联合国框架内加强人工智能规则治理”。这一重要论述深刻揭示了人工智能发展的价值导向与治理逻辑,强调技术进步必须始终服务于社会整体福祉和人类发展进步。

坚持以人为本,就是要以增进人类共同福祉为目标,以保障社会安全、尊重人类权益为前提,确保人工智能始终朝着有利于人类文明进步的方向发展。这要求在技术发展过程中,要强化对个人数据的保护,推动算法的透明化和可解释性,让不同人群都能公平享有智能技术带来的便利,确保技术应用不偏离服务人民的初心。

坚持智能向善,要求人工智能的发展应符合和平、发展、公平、正义、民主、自由的全人类共同价值,共同防范人工智能技术的恶用滥用。这不仅包括防范人工智能被用于深度伪造、网络攻击等恶意用途,同时也强调应主动发挥其在应对气候变化、公共卫生危机、能源转型、灾害预警等全球性挑战中的积极作用,推动人工智能技术真正成为促进包容、平等与可持续发展的力量。

构建规则、技术双轮驱动机制

面对当前人工智能加速演进的态势,国家互联网应急中心牵头组织制定的《人工智能安全治理框架》2.0版中提出要“构建技术与管理相结合、监管与治理相衔接、国内与国际相协同、社会各方积极参与且有效互动的治理机制”。这一治理构想的关键在于“规则+技术”双轮驱动的创新机制。通过二者的协同演进、双向赋能,可以更好地支撑我们牢牢掌握人工智能治理的主动权。

一方面,要加快完善人工智能治理规则体系。这既是应对技术快速迭代与风险加速演化的迫切要求,更是掌握发展主动权的战略举措。具体而言,应统筹推进覆盖人工智能研发全链条的法律法规与规章制度建设;同步建立科学、动态、可操作的风险分级分类测试标准体系,实现对不同应用场景的精准化、差异化监管;持续健全人工智能伦理准则与行业规范,推动伦理要求制度化、落地化。

另一方面,要大力推动人工智能治理技术的自主创新。人工智能治理的核心在于培育安全、可靠、公平、透明的人工智能技术研发和应用生态,从数据源头强化隐私保护和偏见防控,在模型算法层面引入价值观对齐等机制,系统提升人工智能的算法可解释性、模型可测评性、决策可追溯性、运行可监测性等能力。通过人工智能治理技术的体系化创新,支撑治理理念与规则在应用与实践层面落地。

积极推进人工智能治理技术体系化自主创新

加强人工智能治理技术的自主创新,是牢牢掌握人工智能治理主动权的关键所在。当前人工智能技术仍面临数据分布复杂、模型可控性不足、系统测评体系不完善、推理过程不透明等突出问题,亟须在多个核心技术方向上持续攻关。

强化训练语料数据可信治理技术。高质量、可信的训练语料数据是保障人工智能系统可信的基础。应建立覆盖数据采集、清洗、标注、更新全流程的可信治理机制,构建统一的数据质量与安全评估体系,确保训练语料的真实性、合法性与代表性。同时,加强数据溯源与追踪技术研发,完善数据脱敏与隐私保护机制,防止数据污染与恶意注入,从源头提升模型训练的可信性。

加强人工智能模型内生可信机制。内生可信机制是实现人工智能系统安全可控的核心技术。应重点围绕模型可解释性、决策可验证性等方向开展研究,推动人工智能模型与法律法规、政策制度和伦理准则的对齐,从设计之初就嵌入安全与伦理约束,实现算法与模型层面的风险识别、异常防御与动态修正,构建具备自我诊断、自我校正能力的内生可信机制,确保人工智能模型在复杂环境下的可信运行和可控演化。

完善人工智能安全风险测评体系。当前,人工智能测评体系尚缺乏统一标准与系统性框架,测评指标不完善、测评过程透明度不足,难以全面反映系统在法规、政策以及伦理一致性方面的真实表现。应坚持规则与技术双轮驱动,以制度建设引领测评方向,以技术创新提升测评能力,实现对政策规则、伦理准则和安全边界的自动识别、响应与校准能力,形成全生命周期的人工智能安全测评体系。

重视人工智能应用全链路可追溯技术。可审核、可监督、可追溯,是保障人工智能应用责任可控的关键。人工智能应用链条长、环节多,涵盖数据采集、模型训练、模型测试、系统部署、用户使用等多个阶段,任何环节的失范都可能引发重大风险。应以可审计为原则,构建推理过程的证据关联,完善训练、推理、输出的全程记录,健全运行期的在线监测、异常定位与责任追踪,为人工智能系统的安全审计、合规监管与失范追责提供支撑。

通过强化数据可信治理、模型内生可信、安全风险测评、应用全链路可追溯等环节,加快形成自主可控的人工智能治理技术底座,为我国在全球人工智能竞争中掌握主动权提供技术保障与支撑。

(作者系复旦大学党委常委、副校长)

    进入专题: 人工智能治理  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 科学 > 科学评论
本文链接:https://www.aisixiang.com/data/171183.html
文章来源:本文转自学习时报,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统