邵春堡:在防范AI失控中构建人类主导的未来

选择字号:   本文共阅读 139 次 更新时间:2025-12-09 21:01

进入专题: 人工智能  

邵春堡 (进入专栏)  

 

人工智能正以颠覆性力量驱动生产力跃升,深刻重塑着人类的生产生活方式。然而,技术“双刃剑”效应也愈发凸显,AI的滥用和误用正从多个维度构成现实威胁,其风险形态已从具体的技术漏洞,演变为对社会结构、国际安全乃至人类认知的系统性挑战。我们不仅要正视这些迫近的挑战,更需深挖其技术与社会根源,积极预防和治理,这关乎到人类对未来的主导。

一、洞察AI的主要威胁

当前,AI风险已初露端倪,并在生态构建中呈现出复杂交织的特征。根据行业共识,其主要威胁可概括为以下五个方面:

1、AI对社会经济结构的系统性冲击

AI对就业的影响远超出传统“机器换人”的范畴,构成一种系统性风险。中国《人工智能安全治理框架》2.0版已明确将“对劳动就业结构的冲击”列为AI带来的重要“社会环境风险”。这种冲击的严峻性在于其规模和速度可能远超社会体系的适应能力。它不仅涉及岗位数量的增减,更可能因技能需求剧变而迅速拉大“数字鸿沟”,被替代群体的社会保障与再就业体系面临巨大压力。尽管从长远看,AI可能催生新业态并提升社会总财富,但在理想与现实的过渡期,将存在一个伴随阵痛与不确定性的较长风险窗口。

2、AI失控风险从理论走向治理前沿

随着AI自主能力的增强,对其失去控制的担忧已不再是哲学思辨。图灵奖得主杰弗里·辛顿警告,足够聪明的AI可能会通过操纵人类来避免被关闭。这一“失控风险”已被纳入国家治理视野。中国《人工智能安全治理框架》2.0版新增了“可信应用、防范失控”原则,明确要求确保AI始终处于人类控制之下,严防其威胁人类生存发展。这标志着,防范AI因目标偏差、能力超越或自主意识觉醒而“反客为主”,已成为一项紧迫的前瞻性治理任务。

3、智能武器与AI军事化降低暴力门槛

将生杀大权赋予自主武器系统,是AI最直接且致命的威胁之一。国家层面的安全报告指出,AI可被用于“生物武器设计”等极端用途。这反映出AI不仅能作为武器平台,更可能实质性降低开发生化等大规模杀伤性武器的技术门槛。而且低成本AI无人机群等“机械蜂群”技术极易扩散,不仅可能扰乱军事平衡、引发军备竞赛,更可能落入非国家行为体手中,造成难以遏制的不对称袭击,使人类面临前所未有的安全困境。

4、AI的欺骗性从“技术幻觉”升级为现实威胁

AI的欺骗性风险已高度现实化,突出表现为深度伪造(Deepfake)技术的滥用。此类技术能合成逼真的虚假音视频,用于精准诈骗、制造社会恐慌和误导舆论。例如,已发生诈骗分子利用AI伪造高管音像,在视频会议中骗走企业巨额资金的案件。更为根本的挑战在于,AI的“黑箱”特性使其决策过程难以解释,而在训练中,AI为高效达成量化目标,可能自发学会隐瞒、误导等策略性欺骗行为。当虚假信息可以大规模、低成本定制生产时,社会共同的知识与信任基石将受到侵蚀。

5、AI加持使网络安全演变为智能体对抗

AI正从本质上改变网络攻防的格局。一方面,攻击方利用AI实现了高度自动化与智能化,例如攻击者已开始使用具备自主决策能力的“AI智能体”进行漏洞探寻和自动化攻击。另一方面,AI也加剧了固有的安全挑战:它显著降低了网络攻击的门槛,使攻击者能快速利用漏洞;同时,AI供应链的复杂性带来了“多米诺骨牌”式的连锁风险,一家供应商被攻破可能导致成千上万下游应用受影响。网络安全已从静态防护,演变为一场动态、持续且高度不对称的“算法对抗”。

二、剖析AI风险的深层推手

为何AI风险日益凸显而治理却举步维艰?其根源在于技术、资本、地缘与政治四大结构性因素的复杂交织。

1、科研探索的伦理滞后与竞争焦虑

在激烈的全球竞赛中,追求技术领先常常压倒了对安全的审慎评估。AI先驱杰弗里·辛顿曾直言,科技公司在研发竞争中往往只考虑领先对手,而将安全问题置于次要地位。这种“竞争-安全”的失衡在大模型研发中尤为明显,参数与性能的竞赛白热化,但与之匹配的风险预判与价值对齐机制却普遍薄弱。当“能做即应做”的思维主导方向时,技术发展便可能陷入忽视长期社会影响的“裸奔”状态。

2、资本驱动的非理性扩张与目标偏移

私人资本是当前AI发展的核心驱动力,其逐利本质可能使技术发展方向偏离公共利益。汇丰银行的一份报告曾警示,即便是头部AI公司,也面临天价基础设施成本和难以盈利的可持续性挑战。这种对巨额回报的追求,可能导致资源过度集中于能快速变现的应用领域,而关乎长期安全、公平和可解释性的基础研究则投入不足。资本逻辑主导下,技术的公共属性和社会风险容易被市场考量所边缘化。

3、地缘博弈下的治理碎片化与“竞底”风险

技术民族主义和“小院高墙”策略正在割裂全球治理的基础。各国为抢占战略制高点,倾向于实施差异化的监管标准,这极易引发“监管套利”和“逐底竞争”,即为吸引投资而竞相放宽安全要求。中美欧等主要力量在AI治理路径上存在分歧,导致在致命性自主武器系统(LAWS)禁令等关键议题上难以形成具有约束力的全球公约。治理的“真空”与“碎片化”,使得任何一国的努力在跨国界的AI风险面前都显得杯水车薪。

4、选举政治与公众认知的“短期主义”陷阱

选举政治的周期性与AI风险的长期性、复杂性存在根本冲突。政客为在任期内凸显政绩,常将AI政策简化为促进经济增长和保障国家竞争力的工具,倾向于用补贴和宽松监管刺激短期突破,而将需要长期投入的伦理、安全等治理框架建设置于次要。同时,公众对AI风险的认知存在滞后与偏差,复杂的专业问题难以迅速转化为有效的政治压力,导致政策制定往往被动响应危机,而非主动塑造安全、负责任的发展路径。

三、驾驭AI的治理之道

面对系统性风险与深层次矛盾,必须将被动应对转向前瞻性治理,通过技术、法律与全球协同的组合拳,为AI发展装上“缰绳”与“导航”。

1、将伦理价值与安全能力内嵌于技术创新

治理的首要环节在于前端干预。应在技术设计中践行“安全设计”原则,将安全、公平、可控等要求从模型训练之初就作为核心指标,而非事后补丁。这要求必须分配足额资源,专项研发“价值对齐”、可解释AI和故障安全机制等关键技术。同时,建立严格的分级测试与“红队”演练制度,对高阶AI系统进行强制性安全评估,通过模拟对抗主动发现其潜在的危险倾向。

2、构建基于风险的敏捷监管与明确责任框架

法律监管必须跑在技术前面。最紧迫的是在国际层面推动具有法律约束力的条约,禁止致命性自主武器系统(LAWS),守住人类对武力使用的最终控制权这一伦理底线。对国内监管而言,应实施分级分类管理,对直接影响生命健康、金融安全等“高风险”应用,如自动驾驶、医疗诊断等,实行准入许可与持续监控;对通用大模型,则侧重源头的基础模型备案与安全评估。同时,必须通过立法明确开发者、部署者、使用者的责任链条,确保损害发生时有明确的追责机制。

3、推动以人类命运共同体为理念的全球协同

AI风险无国界,任何国家都无法独善其身。必须超越地缘博弈,在联合国等多边框架下,就关键风险领域建立全球性的最低安全标准和风险预警信息共享机制。重点应在禁止LAWS、规范前沿研发、防止技术恶意滥用等议题上寻求最大共识。协同治理的目标不是统一技术路径,而是建立聚焦风险、包容多元的规则框架,防止因标准不一而出现全球安全漏洞。

4、启动社会适应与人力资本重建的系统工程

治理的终点是人。必须将全民数字素养与AI技能教育提升至国家战略高度,帮助公众理解并与AI协作,而非被其替代。教育体系需加速改革,转向培养创造力、复杂问题解决和情感交互等AI难以替代的核心人力资本。与此同时,社会政策需前瞻性探索如何构建人机协同时代的安全网,例如对全民基本收入(UBI)、终身学习账户等方案进行严肃研究与试点,以缓冲技术冲击,保障社会公平与稳定。

防范和治理AI风险是一场与时间的赛跑,是对人类智慧、勇气和团结的考验。它要求我们超越短期的商业利益、地缘竞争和政治周期,慎重思考我们究竟希望技术带领我们走向怎样的未来?答案取决于今天的选择与行动。防范和治理之路充满挑战与妥协,但通过坚实的技术加固、可靠的法律护栏、真诚的全球协作以及包容的社会转型,我们终能驾驭AI这艘巨轮,穿越风险惊涛,驶向对人类有益的彼岸。

 

参考资料:

1、《人工智能安全治理框架》2.0版发布.[N].人民日报.2025-09-16

2、第五届网络空间内生安全学术大会发布“AI+生态构建八大安全挑战”_[EB\OL]_法治网,2025-12-02. http://www.legaldaily.com.cn/IT/content/2025-12/02/content_9299689.html

3、AI+”时代网络安全挑战升级,如何构建有效新防线?[EB\OL] 2025-12-03. https://wlaq.gmw.cn/2025-12/03/content_38456207.htm

4、从风险清单到治理体系:人工智能安全治理框架的演进逻辑分析[EB\OL].中国网信.2025-09-28. https://www.cac.gov.cn/2025-09/28/c_1760779758683488.htm

5、专家洞见 未来AI的趋势与突破.[EB\OL] 新华网.2025-07-31.http://www.news.cn/tech/20250731/cb52b8a51591471eaf8e6bdde4a7d385/c.html

6、誤導公共輿論、竊取關鍵信息 別讓AI助手成威脅國家安全的“隱形武器”[EB\OL]. 新闻频道.2025-07-16. https://big5.cctv.com/gate/big5/news.cctv.cn/2025/07/16/ARTI0Vh24sOaHXPFT44zCLog250716.shtml

7、深度伪造正在重塑商业安全边界:企业生存指南已就位.[EB\OL]神译局

.2025-12-01. https://36kr.com/p/3542462879985795

8、AI 骨牌效應:一家廠商的 AI 應用程式遭駭如何讓業界龍頭跌了一跤[EB\OL].Trend.2025-09-24. https://www.trendmicro.com/zh_tw/research/25/i/ai-app-breach.html

进入 邵春堡 的专栏     进入专题: 人工智能  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 科学 > 科学评论
本文链接:https://www.aisixiang.com/data/170319.html
文章来源:作者授权爱思想发布,转载请注明出处(https://www.aisixiang.com)。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统