齐萌:人工智能强制责任保险的法律构造——以智能驾驶为例

选择字号:   本文共阅读 90 次 更新时间:2025-12-27 23:44

进入专题: 人工智能   智能驾驶   责任保险  

齐萌  

摘要:在人工智能应用模式下,传统保险产品的算法与网络安全风险被显著放大,打破了多元主体参与下的责任划分格局,导致受害人获取证据的难度持续攀升。人工智能强制责任保险以“强制投保”为核心机制,能够有效化解受害人“举证难”与“损失获赔”之间的核心矛盾,且具备坚实的理论支撑:国家干预理论为强制责任保险的介入提供正当性基础,科斯定理所倡导的“社会总成本最小化”理念与强制责任保险保障消费者的目标高度契合,汉德公式的引入为保险制度中的风险评估、责任界定提供客观量化的依据。人工智能强制责任保险的构建需从三方面精准发力:内容设计上,以“产品责任风险”与“网络安全风险”为双重核心;技术支撑上,依托“黑匣子技术”实现算法过程的可追溯,结合“多模态融合识别技术”提升风险监测与定损的精准度,为保险理赔提供技术赋能;程序构建上,建立“过错推定原则+人工智能司法鉴定”的联合认定机制的同时,不断健全保险公司的追偿权制度。

关键词:人工智能   强制责任保险   产品责任   网络安全  自动驾驶  保险理赔

一、问题的提出

以大模型、具身智能为代表的人工智能技术,作为新质生产力的重要形态持续迭代,正推动传统产业发生系统性变革,具有“效率革命+治理重构”并行的双重效应:在基础设施运营层面,以算力、算法、数据为核心的人工智能技术不断优化传统决策框架,通过算法学习逐步替代人力介入,实现系统自主运行,这既能有效降低人力成本、提升运营效率,更能使其成为新质生产力发展的关键驱动力;在风险治理层面,人工智能深刻重塑产业链原有格局,其内在技术缺陷、算法漏洞等问题,可能导致算法应用过程中的风险不断累积与嬗变,催生新型风险挑战。2019年多起涉及特斯拉自动驾驶系统的致命车祸、2023年ChatGPT安全漏洞导致的用户信息泄露以及2025年“3·29铜陵小米SU7爆燃事故”都引发了人们对于人工智能安全的担忧。此外,人们在AI平台输入信息时可能面临网络安全风险,且AI在接收人类信息投喂并生成输出结果后,会将相关信息纳入数据训练集进一步分析,以强化对人类行为的建模、深化学习能力,进而优化人类语言表达的输出效果,这一过程中的信息安全与隐私保护问题也亟待重视。

当前学界研究主要集中在自动驾驶汽车的强制责任保险、国际立法和实践的比较和借鉴、侵权责任体系的构建、法律规制的完善等方面。现有研究在基础框架、技术适配和实践衔接上贡献显著,但也存在以下明显的问题:其一,应用场景过度聚焦自动驾驶汽车领域,导致研究覆盖范围狭窄,难以回应多元场景下的强制责任保险需求;其二,理论支撑存在明显滞后性,现有研究多沿用传统责任保险与侵权法理论框架,未能结合人工智能的特有风险构建专属理论体系,缺乏适配人工智能技术迭代规律的理论支撑;其三,本土适配性研究不足,不少成果虽借鉴了欧美学术观点与政策框架,但未深入剖析中国特有的监管模式和法律体系,难以系统地为本土人工智能保险制度的设计提供理论参考。

鉴于此,在推动人工智能技术发展的同时,应当建立健全风险预防与规制体系。为了有效应对人工智能风险对使用者的人身及精神造成的冲击,建议构建针对人工智能强制责任保险的法律体系,依托事前的保险预防机制,建立强制责任保险架构,以黑匣子和多模态融合识别人工智能中人机交互的场景来判定责任主体,完善“过错推定+人工智能司法鉴定”的联合机制,综合分析和明确主观过错的判定标准,简化保险事后追责的过程。

二、人工智能对保险责任制度的重构及其蕴含的风险

传统保险制度中能够适用人工智能场景下的保险类型有产品责任险、无人驾驶汽车商业险、智驾险等,其中大部分都是商业保险,即如果消费者购买了人工智能产品但是没有投保相关商业险,一旦发生损害,只能诉诸侵权责任、替代责任等路径,通过漫长的诉讼途径获得救济。为了有效缓解人工智能背景下,消费者救济的困境、保障消费者合法权益并疏通人工智能产品“制造-销售-救济”全链条,应当重构保险责任制度。当前,针对人工智能侵权责任保险制度的研究众多,但主要聚焦于保险分散风险的功能上,核心围绕单一的侵权责任风险,较人工智能保险制度而言更加狭隘。在人工智能技术迅猛发展的今天,理论和实践都向我们表明,现有的制度应当得到妥善调整,聚焦新技术带来的算法风险和网络安全风险,以完善的制度为消费者保驾护航。尽管人机交互给人工智能带来了无法避免的严峻挑战,但是强制责任保险仍然能够为所有受害者提供最有力的保障。此外,人工智能产品的数据主导权大多掌握在生产者手中,加之算法的不可解释性,显著加重了受害人的举证难度。鉴于人工智能给消费者带来的多重风险挑战,传统保险制度的重塑已势在必行。可依据“大数法则”,通过构建事前风险分担机制对冲消费者潜在风险的不确定性,同时推动保险公司与产品生产商深化合作,从风险源头入手降低事故发生率。

(一)人工智能强制责任保险的定义、内容和逻辑起点

《保险法》第65条第4款规定,责任保险是指以被保险人对第三者依法应负的赔偿责任为保险标的的保险,我国现有主要的责任保险类型有机动车第三者责任保险、安全生产责任保险、油污损害民事责任保险以及专利代理责任保险等。上述责任保险产品的客体是人处于工作或者操控过程中潜在的风险隐患,是投保人为了更好地保障自身利益、减少因赔偿第三方受害人的损失而创造的保险产品。鉴于此,目前的责任保险的核心是针对人力控制之下的风险。然而,在人工智能技术广泛应用的背景下,机器设备与算法逐渐取代人力成为新型风险源头。

人工智能强制责任保险的诞生恰恰是为了解决智能产品对消费者带来的损害,破除传统保险类型与新型技术挑战之间的不适应性,为智能产品创新发展与消费者权益保护之间构筑桥梁。人工智能强制责任保险是以开发者、运营者与使用者为共同投保人、以智能产品为被保险“人”,由保险人对智能产品给第三者造成的损失,依法向该第三者赔偿保险金的新型保险产品。在基本的保险法律关系上,投保人与保险人之间联合订立保险合同,保险人可以根据被保险对象的风险等级和应用场景,在法律规定的框架内定价,投保人之一的开发者应当如实告知和披露产品的技术性能、算法逻辑、潜在风险与历史事故记录等基础信息。被保险对象发生事故导致第三者受到损害时,保险人应当直接向第三者进行赔偿。虽然被保险对象是具身智能,具有极强的类人性、拟人化,但是其仍然无法如人一般具有灵活的风险感知和应急处理能力。因此,应当由人工智能的开发者共同承担保险人的义务,在风险防范、应急处理和事故报告方面及时弥补产品的不足,配合事故发生之后的调查,并固定证据,否则应当承担对其不利的法律后果。除此之外,人工智能强制责任保险有其自有的特殊性,其产生和发展都是基于国家鼓励人工智能场景创新、加强全面深化改革与深入实施“人工智能+”行动的政策背景,具有鲜明的时代特征和独特的实践需求。在智能驾驶、诊疗型人工智能等生产制造、金融与生活服务场景下,智能机器人得以广泛应用,其引发的系统缺陷、人类不当操作、人机交接失败等引发了市场与消费者的担忧,强制责任保险制度不仅是对传统保险的补充,更是应对新型智能风险的重大探索。

在内容层面,人工智能强制责任保险的保障范围具有显著扩展性:其不仅延续了传统责任保险对第三者的损害赔偿功能,更针对人工智能技术的特性,纳入了算法风险、网络安全风险等独有特殊风险类型,将算法错误、数据泄露、隐私安全侵害等具体情形全面覆盖其中。这种“一揽子”的保障设计,能够有效应对智能产品带来的复合型“风险束”问题,进而助力弥合现有法律制度与新兴技术发展之间的适配鸿沟。然而,人工智能的快速崛起与互联网的深度融合,也催生了新的挑战。在此背景下,数据、信息与算法的掌控权成为竞争核心,掌握这些关键资源的主体更易在市场中占据优势地位。这种资源分配的不均衡,可能进一步加剧数字鸿沟、“大数据杀熟”、社会等级分化以及人工智能技术异化发展等问题,对社会公平与技术伦理构成潜在冲击。

人工智能强制责任保险的逻辑起点源于人工智能技术特有的风险属性、社会公共利益保护的特殊需求、法律规制的必要性以及鼓励创新的时代要求。具体而言:首先,当前人工智能的发展在数据、算力和算法的支撑下取得了卓越的成就。人类通过编写程序和算法,经过大量数据训练,最终确定了产品得以运行和上市的算法参数。然而,目前人工智能的算法技术仍然存在漏洞。根据服务的类型可以将当前的人工智能划分为分析型人工智能、感知型人工智能、对话人工智能、生成式人工智能以及自主人工智能,其中分别以“智能推荐”、智能音箱、Siri、虚拟主播以及智能驾驶为代表(如表1所示)。不同类型的人工智能引发的风险类型与属性各有差异,依托数据存储和加工为主要运行手段的初级人工智能,如“智能推荐”等引发的风险类型主要集中在数据和算法维度的数字风险,而对话型人工智能倾向于通过与人类之间的交互,输出情绪价值,把握人类情绪感知状况,但是一旦其超脱控制,交互与隐私安全等问题将会显现以生成式人工智能为代表的中级智能产品中,潜藏着巨大的数据安全风险隐患,以ChatGPT为例,这些人工智能风险主要源于系统内部的西方技术框架,导致我国用户在使用的过程中蕴含着域外意识形态的渗透。以自主型人工智能为代表的高级别人工智能产品,其操作和控制或将脱离人类的控制,引发更加复杂的伦理与法律问题,进而对人类的财产与人身构成直接威胁。这种“人机交互”的场景增加了责任认定的难度,进一步凸显了构建强制责任保险的必要性。此外,随着人工智能的场景化应用,从智能投顾到智能驾驶,从无形到有形,人工智能正以前所未有的方式和速度改变既有行业的运作模式,在众多领域都将衍生独特的风险特征。例如,2018年3月,优步制造的智能网联汽车因未能识别车前方的行人而发生撞击,导致行人死亡;特斯拉生产的Autopilot的Model3系列早期经常把白色的大卡车识别成天空,造成众多交通事故。人工智能在实践中的运用不断警示我们,其未来可能会给我们带来较大风险,而人工智能与新兴技术的结合将使得技术使用风险增加,由此带来的后果更加难以防控。其次,人工智能引发的损害往往会导致受害者陷入起诉困境。智能产品的数据总是由开发者或运营商掌握,受害者想要通过诉讼方式得到救济,就必须提供充分的证据,但是处于弱势地位的受害人难以获得实质性的证据,导致受害者无法在第一时间获得救济。再次,人工智能飞速发展的实际情况以及其导致的社会危害结果,提示我们不仅要谨慎赋能人工智能,同时也要强化监管和法律规制,防止人工智能成为“法外之地”。当前的法律规范体系难以妥善解决人工智能领域的新兴问题。例如,在机动车交通事故责任中,开启智能驾驶模式导致的损害后果是否应当由人类驾驶员承担?法律往往滞后于社会发展,因而导致现有法律无法充分应对人工智能造成的损害,而通过强制责任保险能够倒逼企业加强产品的安全性,避免人工智能野蛮发展。最后,全球各国都在争相发展人工智能、享受智能红利,对人工智能严加管制、加强法律规制手段,可能会抑制产业创新潜能、阻碍生产力转型升级,因而构建强制责任保险制度可以聚集基金池,规避风险造成的损失。与此同时,强制责任保险投保主体囊括开发者、运营者和消费者,这既能增强企业的安全保护意识,也能够减轻其创新成本,使得企业能保持创新的初心,助力科技赋能新质生产力。

1  人工智能类型及其风险概览

(二)自愿到强制:强制责任保险的演进

在传统保险制度中,强制保险的范围较窄,主要包括机动车交通事故责任强制保险(以下简称“交强险”)、高危行业安全生产责任保险以及社会保险等。我国的保险制度以约定为主、法定为辅,保险类型更多包含任意商业险,由投保人自主决定、选择投保意向。保险的产生源于人类应对不可预知的风险的现实需要,其以分散风险为核心功能,试图集中大部分力量救济少部分人的财产损失。在风险社会,民法的价值取向由权利本位到协同兼顾社会本位共同发展,保险制度的出现亦是为了弥补传统认定侵权责任的僵化和复杂。

任意性保险的制度体系要求投保人对自己的未来风险负责,正是“自负其责”原则在保险制度中的转化应用。这种以自由选择为核心的保险制度,虽为社会公众提供了充分的自主空间,但在人工智能广泛渗透的当下,其局限性愈发凸显,具体缘由有如下四点:首先,任意性保险虽然给予了社会公众广泛的自由,但同时也对公众的风险意识提出了更高的要求。多数社会公众普遍缺乏风险防范意识与基本法律认知,无法充分认知保险在风险实际发生时的核心价值。公众可能只看到当前的蝇头小利,认为持续投保未知风险是一种巨大的财产负担。因为,在这个科技高度发达的风险社会中,我们无法预见“明天”和“风险”哪个先到。在任意性保险的制度框架下,社会公众享有购买保险的自由,但同时也承担了较高的风险责任。其次,任意责任保险的法律关系主体受限于保险人与被保险人的单纯保险合同关系,受害人无法径行获得赔偿,增加了受害人实现救济的难度。再次,任意性保险缺乏专业的市场机制。由于人工智能介入传统服务领域,以算法风险为主导的新型风险体系具有隐蔽性和高度专业性,再加上信息不对称等因素,使得被保险人在保险合同的制定中处于被动地位,这可能会削弱被保险人的自主决定权,还可能会使保险人道德风险与被保险人逆向选择加剧,最终导致保险市场失灵。最后,随着人工智能深度参与人类生活,任意性保险将难以覆盖社会公众的广泛需求,加剧受害人与人工智能产品制造商之间的矛盾,继而对社会整体造成影响,甚至引发社会冲突。为此,单纯依赖自由意志的任意性保险显然不足以应对这些风险,尤其是在面对智能驾驶时显得更加力不从心。许多消费者可能因成本问题或保险意识的薄弱而未购买相关保险,加之消费者未能充分了解当前人工智能技术的发展情况,对技术的盲目信赖或将导致其面对事故的发生陷入索赔无门的困境。人工智能的快速发展进一步加剧了这一矛盾,其复杂的技术架构和潜在风险使得传统的责任划分和保险理赔机制难以适应,无限延长了受害人获得诉讼救济和保险人实现追偿权的期限。例如,在智能驾驶的人机交互场景中,算法开发者、硬件制造商、销售者以及车辆保有人、使用人等均可成为责任主体,在责任划分和过错判断方面对传统责任保险的理论和实践带来了巨大的挑战。

此外,智能驾驶、智能医疗等技术的兴起,使人工智能逐步融入日常生活。这不仅重塑了交通出行与医疗服务的原有模式,更重新定义了风险的属性与分布形态,进而对保险制度提出了更高的适配性要求。当前亟须全新的保险类型及相应法律构造填补空白、满足实践需求,保障“人工智能+”场景下使用者的合法权益与救济路径。已有学者在乡村振兴战略背景下,针对乡村医疗机构中医疗事故赔偿责任与村医执业热情之间的现实张力,主张构建强制村医执业责任保险。回归人工智能场景,其暴露的风险隐患,同样导致消费者的购买意愿与其需要承担的人身、财产等潜在风险之间具有突出的矛盾。现有市场虽已出现智驾险、生成式AI侵权保险等新兴产品,但这类产品若仍沿用任意险模式,将难以全面覆盖人工智能场景下使用者的损害赔偿与救济需求,甚至会削弱社会公众对人工智能产品的接受度,最终引发智能产品滞销、行业创新活力受阻的连锁反应。尽管由任意险转向强制险,可能存在损害消费者自主选择权、加重公众财务负担、抑制企业创新动力乃至引发企业道德风险等消极影响,但从宏观视角来看,强制险模式可通过适度让渡部分消费者的选择权,实现更广泛社会公众的救济权保障,同时倒逼企业在创新过程中充分考量社会效果,最终达成社会效果、政治效果与法律效果的统一。因此,强制险是在现有人工智能保险市场处于萌芽初期的一种最优策略。这也意味着,我国现有的保险体系中的传统概念、类型与原则,已难以适配人工智能场景的特殊需求。

所以,如果要为人工智能产品导致的损害后果设定一种保险类型,更适宜选择责任保险。原因在于,人身保险的标的是被保险人的生命及健康状况,为人工智能产品致害设定人身保险在无形中夸大了其风险类型,同时也会击退部分人工智能产品的潜在消费者。在财产保险中,责任保险的保险利益主要是第三者的经济利益,其中还涉及部分人身损害。例如,交强险的保险对象就是事故中第三者的人身伤亡与车辆损失等。这与人工智能产品可能导致的财产损害与部分人身伤亡相契合。按照《保险法》的规定,责任保险是以保险人对第三者依法应负的赔偿责任为保险标的的保险。该条款点明了能够实现责任保险的前提是行为人投保、保险人有过错并且行为人的行为纳入保险人承担保险责任的范围内。责任保险与侵权责任是如影随形的,没有一方的侵权责任就不存在责任保险制度的保险赔偿金,因此,确定导致损害发生的实际行为人、厘清侵权责任的分配与承担,是实现责任保险受偿和保险人追偿权的核心因素。在人工智能介入的损害中,责任保险与侵权责任的捆绑使得保险功能和目标的实现变得愈加艰难。责任保险并非都是法律强制投保,分为强制责任保险和任意责任保险。在任意保险框架下,如果侵害一方没有投保责任保险导致第三者受到损害的,受害人只能要求侵害方承担赔偿责任,对受害者的权益保护程度较低。与此相对,强制责任保险赋予受害方完善的赔偿救济渠道,规定了受害人具有直接向保险人请求赔付的权利,避免侵害方拖延、拒赔等情况的发生,发挥了保险人分散被保险人侵权损失的直接作用。在人工智能场景下,强制责任保险的功能将得到显著发挥,能够重构任意保险的体系架构,改变《保险法》的自愿原则,以保障社会公共利益与鼓励产业创新为己任,促使人工智能开发商贯彻最大诚实信用原则,既减轻了自己的赔偿责任,同时对消费者提供了充足的保障。

如前所述,人工智能按照类型可以分为分析型人工智能、感知型人工智能、对话型人工智能、生成式人工智能以及自主型人工智能,不同类型的人工智能造成的风险、影响范围等各有差异。由于自主型人工智能对人类造成的风险以物理风险为主,风险一旦发生将造成不可逆转的严重后果,且损害救济非常急迫,在责任认定与赔偿等方面也存在较大难度。因此,在构建人工智能的强制责任保险时应当区别对待。对此,本文聚焦于以智能驾驶为主的自主型人工智能,根据其可能产生的相应情况构建具体的强制责任保险的应对策略。

(三)

人工智能模式下智能驾驶面临的风险与挑战

人工智能模式下的智能驾驶颠覆了传统人类驾驶的方式,将驾驶权交由以算法、数据与算力为基础建立起来的智能驾驶系统,实质性地突破了传统交通的规范框架,在给人类带来便利、舒适性和效率的同时,智能驾驶也逐渐暴露出众多隐蔽的风险点。例如,在2025年“3·29铜陵小米SU7爆燃事故”中,从智驾系统提示前方有障碍到事故发生仅有2-4秒,人类如何在如此短暂的时间中顺利完成接管成为困扰智能驾驶安全性的重要一大难题。当前我国智能驾驶制度的交强险及商业保险产品仍局限于人工驾驶模式下的传统风险类型,但随着智能驾驶技术的发展而逐渐暴露出的算法缺陷、数据泄露、网络安全等新型风险,为了更加高效地救济事故的受害者、更好地发挥保险制度的优势,必须在现有保险制度的基础上进行革新,充分重视新型风险谱系,将算法风险与网络安全风险都纳入承保的范围内,由保险人对两类风险转化产生的事故和损害承担保险责任。

1.内容扩张:算法风险与网络安全风险

作为一种新兴技术,自动驾驶技术的发展必然需要经历渐进式的演进过程,在短期内很难达到绝对安全的理想状态,只能实现风险相对安全。因此,在自动驾驶技术发展的漫长时间内,必须重视和缓解算法风险带来的损害赔偿问题。算法风险根源于深度学习算法所固有的不可控性与不可解释性,属于技术层面的内生性风险。此外,算法运行高度依赖外部海量的数据收集,数据来源的不确定性与数据篡改的可能性共同构成了算法系统的外源性风险。内生性技术风险与外源性数据风险叠加,加剧了算法缺陷的风险可能性。

智能驾驶技术在道路交通处理模式上可简化为“感知-决策-执行”流程。在感知层面,借助智能驾驶车辆安装的多种感应仪器(包括激光雷达、探测仪等)实时检测当下的环境信息。在决策-执行层面,算法会实时处理传感仪器搜集到的环境信息并同时作出判断,生成刹车、打方向盘、加速等指令。尽管如此,算法在落地应用中仍存在不可避免的外部性风险,即将算法技术嵌入具体化场景应用后,可能对个体权益、社会伦理、公共安全等方面造成系统性负面影响。根据算法风险对社会的影响,按等级可以将其划分为算法黑箱、算法操控、算法共谋、算法歧视、算法偏见、算法异化等。此外,算法本身存在三重原生黑箱:其一,技术层面的不可控制性,即技术黑箱;其二,算法技术的高度专业性,即解释黑箱;其三,开发者在运用过程中可能存在倾向性,即组织黑箱。因此,在人工智能时代,算法风险具有高度复杂性和多层次的黑箱特征,两者交织容易引发巨大的社会风险,对汽车保有人与受害人影响重大,亟须充分回应当前的难题,完善智能驾驶的保险制度。

除了算法风险之外,智能驾驶还存在明显的网络安全风险。人工智能的运行离不开高效的网络基础设施,稳定又安全的云端算力是人工智能实时数据与算力的坚实基础。智能汽车在行驶的过程中,通过5G/V2X移动互联网技术实时获取复杂的路况数据,依托算法在毫秒内完成数据分析和梳理,进而生成应对复杂路况的最优决策指令。

但是,智能驾驶汽车同步使用云端技术将会出现下列难题:首先,网络基础设施的稳定性难以保障。一旦出现网络系统的瘫痪或者失灵,智能驾驶汽车难以将路况实时传输到云端进行数据处理,汽车持续的高速移动可能会造成重大的人身安全隐患。例如,2018年7月19日,微软蓝屏事件使得全球范围内的IT系统失灵,导致银行、机场、医院等关键基础设施陷入瘫痪。其次,数据容易受到网络黑客的攻击。智能驾驶技术的感知优势异常脆弱,如果感知仪器传达的数据遭受网络黑客的攻击,不仅可能导致感知错误,还可能触发操作传感器、摄像头隐藏或者虚构物体,导致算法决策系统作出错误的指令。除此之外,智能驾驶技术的3D地图或者GPS信号也存在被黑客攻击的危险,例如网络黑客通过构建虚假地理信息,诱导智能驾驶车辆偏离正确的路线,继而驶向人群集中的区域,造成社会危害。最后,滋生用户数据泄露的安全风险隐患。网络安全引发的问题还体现在数据泄露所导致的风险中,如智能驾驶技术收集了大量乘客的个人信息与敏感信息,如果得不到妥善处理,数据安全风险将一触即发。

2.主体识别困境:人工智能自主性与多元主体的责任冲击

在智能驾驶技术深度融入道路交通体系的背景下,交通事故责任认定机制正面临着冲击,其核心困境体现为责任主体虚位化。一方面,在人工智能应用中存在生产者与制造商“逃逸”于责任主体之外的情况。在智能驾驶事故责任分配中,汽车生产者与算法开发者通过代码指令实质掌握车辆控制权,然而《民法典》侵权责任编的“缺陷”认定标准难以适用于算法,存在立法漏洞,导致汽车制造商逃逸应有的产品责任,却捆绑汽车保有人,迫使其通过责任保险承担莫须有的义务,凸显了自动驾驶技术场景下产品责任主体与风险承担主体的严重错位。《产品质量法》第46条以国家或行业标准和不合理危险来判断“产品缺陷”,但是当下的人工智能技术尚不存在成熟的技术标准可供参考,再加上人工智能存在算法黑箱,导致制造商可借助“发展风险”抗辩消解责任。

另一方面,人工智能蕴含着“人机交错”的区分难题,导致难以区分保险责任主体。由于当前智能驾驶技术还停滞在“L2+”并不断接近L3的辅助驾驶过程中,人类驾驶员仍被附加了注意义务与必要时候的接管义务,从而产生了“人机交错”的模糊地带,进而导致难以厘清保险责任。“人机交互性”的多重叠加因果关系难以有效厘清人工干预过错与算法错误的责任边界。智能驾驶交通事故因果关系的复杂性因智能驾驶的级别而异。L3级驾驶系统虽可在限定条件下执行驾驶任务,但仍要求驾驶员持续监控环境并适时接管,形成“人机协同”的交互控制模式;而L4、L5级别驾驶系统则基本无需用户干预。然而,从当前技术发展现状来看,L3级别驾驶系统将在未来相当长的时间内保持主导地位,其中智能驾驶系统与人类驾驶员之间的控制权动态转移可能产生复杂的因果关系,涉及人机交互、责任认定等多维度的技术挑战。第一,当交通事故发生于智能驾驶系统尚未启动的人工驾驶模式时,既可能完全归因于驾驶员的个人过错,也可能涉及驾驶员在接管系统时因过失或故意未能妥善处理,抑或系统未给予驾驶员充分的反应时间;第二,当事故发生于自动驾驶模式时,既可能源于系统未能识别风险,也可能因系统虽识别风险但未提供足够的接管时间,还可能涉及驾驶员因疏忽大意、过于自信甚至故意未及时接管的情形,这种驾驶员行为与智能驾驶产品缺陷的叠加效应,使得人类驾驶员的过错与产品责任的边界和比例判断和缺乏客观量化标准。

3.因果关系证明障碍:算法的不可解释性导致保险人举证困难

智能驾驶交通事故侵权证据的数字化导致保险人的举证能力愈发薄弱。智能驾驶事故数据的生成、存储与解析权集中于车辆制造商,保险人既缺乏获取原始驾驶数据的法定权限,又欠缺解析算法决策日志的技术能力。所以,在智能驾驶时代背景下,保险人难以提供初步证据证明交通事故的责任认定。算法的专业复杂性又进一步加剧了保险人追偿权的难度,保险人需要面对算法决策过程不可解释性造成的举证困境。即便保险人可以获得事故数据,亦会因算法的解释黑箱而难以达到产品质量“缺陷”的证明标准。因此,保险人在履行赔付义务后,既面临《机动车交通事故责任强制保险条例》(以下简称《交强险条例》)第22条列明事由的适用不能,又受制于对算法缺陷证明的高举证成本。保险人在向受害人赔付后,由于难以向汽车制造商成功追偿,因而《交强险条例》第6条规定的交强险“不盈利不亏损”的运营原则也难以实现。

三、人工智能强制责任保险法律构建的理论基础

人工智能为人类带来便利的同时也产生了很多风险隐患,智能技术内嵌的原生性漏洞或将导致系统存在安全隐患,难以保障人类在使用智能产品过程中的安全,此外其特有的算法风险、网络安全风险也会对国家与社会发展构成潜在威胁。因此应当对人工智能产品加以规制,而国家干预理论恰恰为人工智能强制责任保险提供了正当性基础,科斯定理能够成为确定强制责任主体的理论基础,汉德公式在人工智能风险预防中的引入亦为强制责任保险的建立提供了强大的理论因子。

(一)国家干预理论:人工智能强制责任保险的正当性

国家干预是经济法中的一个基本范畴。市场既是自由的,也是有缺陷的。人工智能产品的市场尚未成熟,存在严重的算法风险、数据安全隐患等。在近几年的热点新闻,如人工智能无人机抗命反杀操作员、AI换脸引发隐私危机以及亚马逊智能音箱劝说主人自杀等事件中可以发现,人工智能产品的技术仍显稚嫩,对人类的物质及精神都可能造成难以弥补的伤害及风险,尤其是在智能驾驶领域。因此,亟须国家干预不成熟的人工智能产品导致的市场失灵,通过规范产品研发及销售,有效预防风险发生并及时止损。

国家干预职能在重商主义和凯恩斯主义中被突出强调,其主张尊重市场自由,但也不否认国家始终保持最低限度的干预职能。市场虽然是资源配置最有效的手段,但是任何事物都不可避免地会存在不足。市场中,相较于商家,消费者往往处于弱势地位,如果一个人工智能产品的消费者在事后发现产品存在重大风险隐患,但通过自力救济方式成功的概率又极低,那么他将会降低购买此类商品的欲望。长此以往,人工智能产品市场将面临滞销、企业创新的动力将大受打击,国家创新驱动发展战略与发展新质生产力的愿望也将落空。

在人工智能产品的市场中,引入强制责任保险制度具有正当性,是国家干预的手段之一。第一,强制责任保险介入人工智能产品能够缓解促进创新与保障消费者权益之间的冲突。人工智能内在的技术复杂性与算法的不可解释性导致传统的责任分配机制失灵,人机交错现象进一步加剧了责任主体的认定对及时弥补受害者损失的巨大障碍,而强制责任保险制度以风险社会化的方式,通过全民投保、个别受偿,快速赔偿受害者的损失,避免消费者陷入救济困境、经营者陷入经营困境、市场陷入创新停滞期。第二,强制责任保险重塑了保险制度的投保路径。国家干预以强制手段要求人工智能开发者、经营者、消费者等参与主体共同加入保险蓄水池,为实现救济增添一层保障,将个体风险汇聚入社会风险池,再通过保险机制进行合理分担,消解了各阶段人工智能产品参与者的风险与赔偿压力。第三,国家通过强制责任保险制度能够实现社会公平。人工智能产品的定价通常高于普通产品,对弱势家庭而言是一笔不小的开支。若在使用过程中发生损害,不仅会加重这类家庭的经济负担,还会进一步削弱其风险抵御能力。这一情况可能会拉大社会贫富差距,激化不同群体间的矛盾,进而对社会稳定造成潜在影响。强制责任保险制度为他们提供了基本的社会赔偿,确保所有消费者在因人工智能产品遭到损害时能得到救济,保障社会公平与稳定。第四,强制责任保险制度有助于规范人工智能产业链。保险制度融入人工智能产品能够反向助推各阶段的研发者提高技术水平并及时跟进、完善系统漏洞,以国家手段促进市场健全。

(二)科斯定理:确定强制责任主体的理论基础

科斯定理认为,当交易成本为零时,依靠自由市场即可实现资源配置效率的最优,其与初始的权利分配无关。但由于存在交易成本,前述理想情况往往难以实现,在这种情况下,初始权利分配就显得至关重要。科斯定理通过考量交易成本能够在市场主体之间权衡利弊,全面计算各方的成本总额,优先选择决策成本最低、最易于采取纠正措施的一方作为责任方,从而便于高效、直接地实现最终目标。

在人工智能产品的背景下,强制责任保险的引入能够将损害最小化,获得社会效益最大化的理想目标。如何将强制责任保险进行合理分配是亟待解决的第二个核心问题。科斯定理为确定责任分配提供了一种重要思路,认为在确定责任主体之前,可以采取两种方式:一种是比较参与各方的避免损害成本,另一种是比较交易成本。前者衡量的是一旦因人工智能产品引发损害,各方纳入责任主体之间的成本,进而从中选取成本较低的一方作为责任方,实现社会总成本最低。在人工智能产品“生产—流通—销售”全链条中,技术漏洞、算法侵袭等风险是导致产品损害的关键因素。产品研发者往往是这类产品责任的最终承担者,将其纳入保险责任主体范畴,是当前较为适宜的路径,但需明确的是,人工智能产品的责任主体具有多元化特征。其风险隐患涵盖算法黑箱、人机交互不当、销售环节故障、生产过程过失等,责任主体相应包括生产者、销售者、使用者及算法开发者等多方。将上述主体全面纳入责任分配体系,既能避免单一主体因承担过重赔偿责任陷入经营困境,也能有效降低行业整体风险水平。

从交易成本的角度来看,人工智能产品具有的复杂性内含着较高的信息不对称和协商成本。确定责任主体这一流程具有较高的信息成本,衡量各参与方的成本需要完全熟悉人工智能产品的制造原理,才能准确计算与对比分析,寻找更加合理的责任主体。因此,将科斯定理场景化运用于人工智能产品中时,建议推行责任主体组合模式。将人工智能产品参与各方加入组合的模式,可以在总体上降低各方的损失,共同参与投保、规避后续潜在赔偿,以最低的交易成本协商组织谈判并解决人工智能产品面临的未知挑战。

值得注意的是,科斯定理场景化应用必须实时调整。在人工智能领域,由于存在算法黑箱和技术不确定性,完全依靠市场机制可能无法实现最优的风险分配。因此,在运用科斯定理确定责任主体时,还需要考虑技术发展的阶段性特征和社会公共利益等因素,确保责任分配既符合效率原则,又能实现公平正义的目标。从生产者视角来看,其作为人工智能产品的第一责任人,对产品的缺陷短板与当前研究进展有最全面的认知,理应承担更重的责任。然而,在实际场景中,生产者往往会借助算法的未知性与不可预见性,试图规避自身应尽的责任义务。从算法开发者维度分析,开发者是人工智能产品的核心力量,其既是算法技术的构建者,也是技术逻辑的策划者,其行为直接决定了产品的运作机制与核心逻辑,因此,在产品责任体系中,开发者必须承担重要责任。再从销售者角度分析,销售环节中的操作失误或引导偏差,可能导致消费者对人工智能产品错误使用,进而诱发安全事故。基于这一风险关联性,销售者的行为也应被正式纳入保险保障范围,通过这一举措进一步夯实消费者权益保障防线,构建更完善的风险防控体系。

(三)汉德公式在人工智能背景下的适用性讨论

汉德公式是勒尼德·汉德法官在United States v. Carroll Towing Co.一案中提出的,旨在分析当事人是否过失的标准。他采用代数公式,其中P代表可能性,L代表损害,B代表采取预防措施的负担,如果B<PL,则存在过失责任,反之则没有。

人工智能产品依靠以算法、数据等为基础的AI系统,具有算法黑箱、不可解释性的缺陷导致划分责任主体模糊,难以确认保险计量的标准。将汉德公式引入到人工智能强制责任保险制度中可以量化损害与预防措施之间的比较,提供更加客观的依据以确定保险精算标准。汉德公式的加入虽然为人工智能产品的强制责任保险制度带来了更为有力的客观依据,但是人工智能的复杂性使其适用性面临巨大挑战。人工智能算法模糊了损害的计量,一般人无法估计人工智能产品未来发生损害的概率,因而导致P和L难以确定。

鉴于汉德公式在人工智能场景下存在显著的不适应性,应当引入更多机制辅助确定相关参数。一是引入风险评估机制,既能便于利用汉德公式,也能将数据运用在保险计量中。例如,风险评估机制能够通过获悉人工智能产品的运营数据,进一步精算评估风险,提高准确性。其中,L的损害计算需要综合人工智能产品的场景数据。在人工智能语境下,L的损害计算需要包括事故发生之后的人身损害、财产损害,甚至包括对近亲属的精神损害赔偿以及潜在的社会影响。B意味着引入保险制度后,各方主体之间的投保成本。通过这种方式可以使得汉德公式在人工智能产品场景下的运用更加灵活,更贴合数字化时代的现实背景。二是汉德公式与人工智能强制责任保险能够有机融合,形成双赢的局面。一方面,人工智能强制责任保险制度的保险精算系统与责任评估体系有助于汉德公式的运用,将P、B与L三个数值的计算精确度进一步提高。另一方面,汉德公式的计算结果能够让人工智能强制责任保险制度的评估定价更加合理。

汉德公式可为强制责任保险制度的合理性提供理论支撑。强制责任保险通过提前构建风险保障资金池,能有效避免受害人陷入赔偿无门的困境,但汉德公式在人工智能领域的适用,仍需兼顾多重特殊因素。以智能驾驶场景为例,其应用需充分考量技术迭代的快速性与风险的不可预测性。同时,汉德公式的引入还需平衡多方主体的利益关系——人工智能领域的责任链条显著拉长,覆盖从研发、生产、流通到使用的全环节。若仅单纯依赖汉德公式划分责任,可能导致部分主体承担过重的预防成本,最终抑制技术创新与市场活力。

此外,汉德公式的应用还需从伦理维度和社会价值层面进行充分考量。在人工智能背景下,单纯的经济成本分析可能会忽略对人类生命健康等核心价值的保护。因此,在使用汉德公式确定预防措施是否充分时,应赋予人身安全更高的权重,并通过立法明确最低限度的安全标准。这不仅有助于提升公众对智能驾驶等技术的信任度,也能为强制责任保险制度提供更加坚实的道德基础,最终实现经济效益与社会福祉的统一。

四、人工智能强制责任保险的法律制度构建

人工智能产品时代的兴起使得传统保险制度逐渐失灵。为保障人工智能产品消费者的人身安全,同时提升社会公众对该类产品的接受度,应当构建人工智能强制责任保险的法律体系,将风险群纳入承保范围内,启用智能技术判断识别责任主体,实行“过错推定+人工智能司法鉴定”的联合机制,提高社会公众使用人工智能产品的满意度和安全感。

(一)建立以产品责任与网络安全风险为核心的人工智能强制责任保险制度

人工智能强制责任保险制度应以产品责任险与网络安全险为核心,将消费者、制造商等参与方共同纳入投保人的范畴。消费者是产品的实际使用者、保有人与受益者,其使用人工智能产品的行为在客观上为社会开启了风险源,基于“谁受益谁担责”原则,应当承担保险的投保义务。一方面,减少因使用人工智能产品而承担的损失,是对其受益部分的责任的承担;另一方面,这一做法也是对社会风险的合理负担。具体来说,这种使用的风险在智能驾驶中还包括自动驾驶汽车因为设备维护不足(比如没有尽到汽车零部件的检修义务)而引起的事故。德国《道路交通法》第7条确立的保有人严格责任制度,其规范核心要义在于,保有人的责任基础并非源于对机动车的物理操控本身,而源自于其通过对高速交通工具的控制力向社会开启了持续的风险源,此类因使用行为引发的固有风险并不因自动驾驶技术的引入而发生本质改变,其与汽车制造商基于技术缺陷导致的产品责任存在明显区别。鉴于此,使用人工智能产品引发的潜在安全隐患事故的风险来源仍在产品保有人。智能产品与传统产品的区别在于,其不再依托人类的操作模式,而是由人类将指令输入至系统,因此,人类作为指令的发出者才是造成损害发生的首要来源。

因此,笔者认为,建立人工智能强制责任保险,首先要明确产品保有人承担第一重投保义务。其原因在于,现代社会完全智能化需要长期技术完善,当前及未来较长时间内,人机交互仍将是主流状态;在以人工智能为核心的生态系统中,受伦理、道德及消费者偏好等多元需求影响,人类操作模式仍会保留在产品模式中,因此人机协作的人工智能产品模式是当前常态。此外,人工智能产品本身存在人机交互性。例如,L3级别的自动驾驶,当智能驾驶系统发出接管信号时,人类驾驶人负有接管驾驶的义务。人工智能的系统也不可能替代人类对产品的管理义务。即便进入完全智能驾驶的时代,汽车保有人仍然负有对智能驾驶汽车的维修、车检义务以及对智能驾驶汽车系统升级的义务。人工智能产品的保有人作为自动驾驶汽车的实际受益者,应当承担车辆在使用过程中产生的风险责任,这样既能保障受害人的救济权利,又通过风险社会化维护了公共利益,同时还能有效区分“使用风险”与“技术风险”的制度构建,有利于保险人针对每种风险事项,开发有针对性的保险产品。

人工智能强制责任保险的核心内容聚焦于产品责任险与网络安全两大维度。从产品责任维度看,为满足预期功能安全标准,需明确人工智能产品生产者对产品缺陷引发的事故承担强制投保义务,进而构建以生产者为投保主体的技术缺陷责任保险体系。以智能驾驶汽车为例,其产品责任强制保险需契合《产品质量法》第41条关于缺陷产品责任的归责逻辑,全面覆盖算法设计缺陷、算法决策偏差、传感器失效、硬件兼容性缺陷等系统性风险。从网络安全维度看,人工智能产品高度依赖数据与算法,而当前人类对算法的认知仍存在局限,算法所暴露的网络系统漏洞、通讯信号劫持、软件系统升级篡改等网络攻击风险,已成为亟待防范的新型隐患,所以,此类风险也应纳入人工智能强制责任保险的投保范畴。2023年12月8日,国家互联网信息办公室发布《网络安全事件报告管理办法(征求意见稿)》,根据所造成的影响对安全事件进行分级,具体分为特别重大网络安全事件、重大网络安全事件、较大网络安全事件和一般网络安全事件,而针对人工智能产品的网络安全风险主要在于预防网络安全事件导致的事故损失。因此,网络安全损失的计量,同样可以参照该种思路,将因网络安全导致的事故按照级别确认损失。针对上述产品责任风险和网络安全风险,建议强制智能汽车生产者投保,化解智能驾驶汽车时代“无过错赔付”与单轨制投保之间的矛盾。在保费收取上,保险人可以对汽车制造商的网络安全和产品质量(包括算法的透明性、合理性、先进性,汽车零部件与智能算法的兼容性)进行安全评估,并根据安全评估等级分级收取保费,这种联动机制有助于促使生产者不断提高产品和网络安全水平,以降低保费成本,形成正向的激励机制。在现行制度下,需要以产品责任险为核心机制,从而有效地降低因人工智能算法、传感器等产品缺陷而引发的潜在风险;以网络安全险为重要补充,构建起一道应对网络数字安全风险的坚实屏障,形成一套系统的人工智能产品风险分散体系。

(二)以黑匣子和多模态融合识别人工智能责任主体判定

在人工智能高速发展的时代,如果不能有效落实保险人的追偿权,合理分配举证责任与事故安全数据固定制度,将会导致保险人没有动力去承保和开发人工智能的新型保险产品,最终会对人工智能行业的发展带来不利影响。为了应对这种困境,笔者认为应着力构建强制性的“黑匣子”数据存证制度。事实上,域外已有不少国家推行类似制度,且实践效果良好。例如,德国在《道路交通法》第1g条款中明确规定,汽车制造商需为智能驾驶汽车配备数据存储设备。基于此,我国也可以在《道路交通安全法》中作出相应规定,强制汽车制造商为智能驾驶汽车安装“黑匣子”。这一设备能在事故发生后精准还原当时的场景,从而清晰界定人类驾驶员是否履行了接管义务,以及人工智能系统的指令是否正常运行,为责任认定提供关键依据。除了智能驾驶以外,其他人工智能产品也可以内嵌黑匣子设备,例如,在医疗辅助AI、金融信贷AI、司法辅助AI等产品或服务中增设黑匣子,助力纠纷发生后的责任认定,破解人机交互场景下的责任主体认定僵局。与此同时,黑匣子可以提高公众使用人工智能产品的安全感和信任度,让人工智能使用环节可追踪、可溯源,促进产品的推广,并有利于产品更新,激励研发者努力克服算法缺陷,减少启用黑匣子的频率,满足监管合规的要求。

具体而言,首先,黑匣子的记录数据至少应包括人工智能系统与人类使用之间交接的时间要点、事故前90秒至人机交互模式的切换时序、算法决策指令等相关原始数据。其次,建立黑匣子数据向人工智能主管机关自动报备制度。为了快速认定事故责任,在事故发生之时智能系统应将黑匣子的原始数据自动报告至主管部门,授权保险人在事故发生后前来提取有关事故的发生数据,防止保险人在行使追偿权时缺乏证据。再次,建立国家级的人工智能事故数据解析中心。由于人工智能系统算法可能存在算法黑箱,且解读需要高度专业性。因此,建议建立国家级的数据解析中心,允许其接受主管机构、司法机构、保险人的委托出具相应的技术认定报告,并还原技术故障、产品出现故障和问题的时间,人工智能模式使用的次数、持续时间、位置、网络参数等相关数据,作出AI系统在责任事故中的责任比例判断。通过较为权威的智能系统认定是否存在缺陷,防止产品生产商利用《产品质量法》第41条第3款所规定的“发展风险抗辩”条款进行责任逃逸。最后,建立智能技术国家和行业规范标准动态更新。随着DeepSeek等开源大模型的横空出世,AI技术的迭代速度将会越来越快。而我国在AI产品的标准设定上存在漏洞,例如,关于智能驾驶的国家与行业标准大概需要2年才更新一次。智能驾驶技术规范的滞后性将严重影响产品责任缺陷的认定,建议相关机关建立智能技术标准的动态更新制度,便于保险人向产品生产者行使追偿权时具有足够的技术标准参照。

除了黑匣子设备之外,人工智能强制责任保险制度还应当与多模态融合合作共同识别“人机交互”场景下责任划分的问题。“人机交错”的现象导致事故责任认定存在模糊,由此,如何准确区分智能系统与人的行为就成为明确责任的重要因素。黑匣子的引入可有效存储系统数据,为责任认定提供高精度记录,但仅依靠单一数据维度的黑匣子,难以全面追溯“人机交错”事故中的责任划分。若将黑匣子技术与多模态数据相融合,充分利用智能系统的算法学习数据、运行数据及人机交互数据,既能精准解答事故“发生了什么”“为什么发生”的核心问题,又能构建解决事故责任划分的完整责任追溯链,实现对“人机交错”过程的有效还原。此外,智能系统内部的多种传感器可提供多模态信息,这些信息有机结合时具有一定互补性,能有效弥补单一数据的局限,通过相互支撑、修正,为责任判断提供更精准的依据。

多模态融合的关键在于依托智能系统数据,从不同视角和领域区分“人机交错”。充分利用智能驾驶等产品内部传感器,如摄像头、激光雷达、超声波等,结合车外的交通监控、同一时空下的其他车辆行车记录仪、手机视频以及道路天气状况的数据等,形成车-车、车-人、车-基础设施的交互数据,汇集成数据源,并利用精确时间协议(PTP)达到数据的毫秒级同频复原,实现面向智能驾驶事故的多场景、多维度数据采集,以此为依据对“人机交错”进行全方位分析。

多模态融合的步骤有三步:第一,数据源采集。第二,时空对齐。从内外的二维数据源中截取同一时空的同频数据进行预处理。第三,多模态融合策略的选择,可以分为早期融合、中期融合与后期融合。早期融合意味着将二维数据源的数据拼接成一个完整的数据矩阵,分析智能系统与人类模式下的不同数据情境。中期融合是指利用不同数据源的模态数据在高维空间上的共性特征选择适当的位置融合,即以外部数据弥补内部数据的不足,实现不同模型数据的互补性,由内而外地精准识别智能系统与人类模式下的差异。后期融合是以加权融合、因果融合等技术为依托,输入符合人类逻辑的可解释性策略,为事故责任的认定提高准确性与可信度。

(三)构建“过错推定+人工智能司法鉴定”的联合机制

随着人工智能技术迭代升级与社会关注度持续提升,众多品牌及跨行业主体纷纷入局开发相关智能产品。但近年来,相关智能产品引发的人身伤亡事故频发,而现有法律规定尚未明确人工智能产品侵权的归责原则,致使事故发生后裁判标准不一、思路难以统一。根据《交强险条例》第21条的规定,被保险车辆发生交通事故后,保险人对第三人承担无过错赔付责任。该规定为交通事故中受害人获得赔偿提供了充分的保障。但是该条款的情境设定在被保险车辆引起的交通事故中。在人工智能产品引发的事故纠纷中,如果采用产品责任进行救济,针对生产者实行无过错责任原则,当事人需要提供证据证明人工智能产品有缺陷、受到了损害的事实以及产品缺陷与损害之间的因果关系。针对销售者则实行的是过错责任原则。过错责任将沉重的举证责任施加于原告,导致其往往因难以证明行为人主观过错或行为与损害的因果关系,陷入维权困境;而无过错责任虽大幅降低了原告的举证门槛,却可能因过度减轻其责任而滋生道德风险,同时也会给技术研发公司施加过重的责任压力,即企业须为不可预见的损害承担赔偿责任,进而削弱其技术创新的积极性与投入意愿,对技术研发进程形成显著阻碍。因此,建议设立过错推定的保险赔付原则,如果保险人不能证明自己没有过错的,应当承担向受害人赔付的责任。

在人工智能引发的保险纠纷中,若保险人具有符合免责条款的情况,则可以免除赔付义务。保险人可能主张的免责情形有如下四种:第一,受害人受到损害具有故意或重大过失,意味着受害人明知产品存在安全隐患或者产品研发者等部门明确告知使用产品具有重大隐患的仍要继续使用,是一种自甘风险的行为。第二,受害人违反产品使用说明操作引发的事故。人工智能产品的使用者应当是完全民事行为能力人,具有辨认和控制自己行为的能力。在保险人与被保险人签订合同约定的用途、使用规范等情形之外,保险人无需再承担保险义务。第三,产品制造商再三通过电话、系统通知等方式告知使用者及时更新产品系统,且系统更新能够减轻或者消除受害人损失,受害人没有更新而受损的,保险人不再承担保险责任。第四,因战争、大规模网络与算法攻击、恐怖主义等不可抗力导致事故发生的,保险人不再承担保险责任。在上述四种情况下,保险人提交相应证据足以证明的,可以免予承担保险赔付的责任。

在人工智能产品的保险赔付纠纷中,受害人获得证据的概率较低,系统数据材料原则上储存在产品制造商、研发者系统中,受害者在人工智能产品的买卖合同关系中由于信息不对称处于弱势地位,发生纠纷时其调取、收集数据难度较大,无法提交可靠的、具有较高证明能力的证据。过错推定原则可以适当减轻受害人的举证责任,将一部分事实的证明责任交由保险人、制造商等主体,如果他们不能证明自己没有过错的,应当承担相应的法律责任。

此外,建议增设人工智能司法鉴定机构,邀请智能驾驶汽车领域的专家进行鉴定,并要求人工智能生产者、研发者等参与主体统一向公开系统收集的数据集,综合分析智驾系统是否为造成事故发生的第一原因或主要原因力。由于生产者、研发者都是人工智能保险的投保人,无形中会促使这些参与者在保险赔付纠纷中积极参与举证。人工智能司法鉴定致力于研究人工智能产品纠纷中的专业性问题,对争议的问题检验、鉴别与判断,提供各种专业性的鉴定意见。人工智能的隐蔽性与专业性对传统鉴定机构提出了更高的挑战,要求鉴定人员不仅要精通司法程序,还需要精通算法、算力、大数据、云计算等科学技术,但这类高复合型人才往往稀缺严重。人工智能的算法黑箱问题以及不可解释性或将导致产品证据固定困难,因司法工作者难以掌握此类案件的解决策略,导致案件解决困难,延长了受害者获得救济的期限时间。

尽管如此,人工智能产品纠纷中,新型的证据形式和内容、人机交互的责任划分以及事实认定都迫切要求落地专项司法鉴定,智能驾驶的责任划分、金融风险控制纠纷、人工智能医疗纠纷等案件的公正审理亟须建立“过错推定+人工智能司法鉴定”的联合机制。

(四)建立健全保险人人工智能强制责任保险的追偿权制度

人工智能强制责任保险制度需要建立健全保险人的追偿权制度。以智能驾驶为例,《交强险条例》第22条及《最高人民法院关于审理道路交通事故损害赔偿案件适用法律若干问题的解释》第15条规定了保险人在特定的五种情形下,对在责任限额内垫付的抢救费用享有追偿权。现有保险人追偿权事由建立在人类驾驶员对机动车行驶享有绝对控制权的场景下,旨在预防人类驾驶行为风险。传统以“人类驾驶员过错”为中心的认定框架因自动驾驶系统对驾驶行为的实质性接管而丧失逻辑基础,驾驶员的角色嬗变已实质性瓦解了以“人类过错”为中心的传统归责范式——技术层级的提升使驾驶员从汽车运行权利的“主导者”变化为“必要介入者”,最后演变成“服务享用者”,其对机动车的控制程度和注意义务逐渐弱化。因此,人工智能产品保险人的追偿权设计,应当遵循分层次原则。

首先,聚焦于有条件的自动模式。在此种模式之下,智能模式与人工模式具有交替进行的特征。如果侵权事故完全发生在人工模式下,则按照一般的产品侵权责任认定即可。有条件的自动模式虽然具备一定的自动运行能力,但依然需要人类在某些特定场景下适时介入并接管产品并行使控制权,人类仍然处于潜在的接管者地位,仍然有义务保持清醒的意识并监督产品的正常运行。除了上述五种情形之外,还需要考量智能技术所带来的新型风险,追偿权的事由应予以适当扩充。产品保有人作为车辆的实际管理者,对车辆的正常运行负有合理的注意与管理责任,当其因未履行相应的义务而造成事故时,在保险人承担了垫付抢救费用的责任后,有权向其追偿。具体而言,若保有人未能履行对智能产品的维修义务,则可能导致产品在自动模式中因机械故障而引发事故;若未履行安检义务,便无法及时发现产品潜在的安全隐患,增加事故风险;而经过生产者提醒后未进行智能系统的重大升级,可能致使产品在面对复杂路况或新的交通规则时无法做出准确应对,进而引发事故;若保有人未在智能模式请求的合理时间内及时介入车辆控制,则车辆因无法得到有效的人工指令而发生交通事故。针对上述四种情形,若因驾驶人存在疏忽大意或故意未履行相关义务,最终导致事故发生的,应当明确赋予保险人向该驾驶人主张追偿的权利。

进而言之,再探讨完全智能驾驶模式。在此模式下,产品几乎完全由智能系统掌控,人类的角色被极大程度地淡化乃至近乎消失。例如,在完全自动驾驶模式下,车辆能够在所有的道路环境下独立完成动态驾驶任务,无需人类驾驶员的任何干预,甚至人类驾驶员已无法从自动驾驶系统手中重新接管驾驶任务。由此可见,由于传统的交强险追偿权事由主要基于人类驾驶员的行为风险,如无证驾驶、醉酒驾驶、吸毒或麻醉驾驶以及被保险人故意制造交通事故等情形,在高级别智能驾驶环境下其已失去存在的基础,故而不再适用。然而,并非所有的追偿权情形均会因此消失,在高级别智能模式下,盗抢人引发的事故这一外部非法行为仍然是保险人追偿权的重要情形之一,甚至还应当包括网络黑客入侵智能驾驶系统劫持汽车的特殊场景。保有人对智能产品的维修、安检、智能系统重大升级等义务的履行与否,依旧对交通安全有着至关重要的影响。若保有人因疏忽或故意未履行这些义务,保险人有权在责任限额内对垫付的抢救费用进行追偿。同时,这一调整也有助于强化对智能产品保有人合理注意义务的要求。保有人在知晓自己若不履行相关义务将可能面临保险人的追偿风险时,必然会更加积极地履行管理责任,从而共同维护智能产品时代的安全与秩序。因此,依据智能产品不同等级对保险追偿权模式进行调整与革新,更能体现与时俱进、科学立法的要求。

结语

人工智能时代对传统保险制度形成了显著颠覆。因此,面对科技创新与发展的现实需求,亟须构建与之配套的保险制度,确保消费者在遭受损害时能获得及时、有效的救济。以智能驾驶领域为例,人工智能模式下不仅存在更为突出的算法风险与网络安全风险,而且在人机交互机制尚未完全成熟的背景下,人工智能产品暴露的固有缺陷进一步导致此类纠纷中的责任划分成为亟待破解的核心难题。国家干预理论、科斯定理以及汉德公式为强制责任保险的法律构建提供了坚实的理论基础。由此,在法律制度构建方面,建议以产品责任与网络安全风险为核心内容、以黑匣子与多模态融合为技术支撑、以过错推定与人工智能司法鉴定的联合技术为保障、以健全保险人追偿权为重要抓手,实现人工智能纠纷处理的公平与正义。但人工智能产品责任的“缺陷”认定标准与保险人的追偿权行使存在线性关联,未来还应详细研究智能技术“缺陷”的认定范式、加强对智能产品更新义务的学理讨论,并深入研究智能产品责任险与道德风险之间的关系与制度构建。智能产业的可持续发展不仅需要筑牢保险制度的支撑,还需加快推进智能产品缺陷评判规则的研究。

    进入专题: 人工智能   智能驾驶   责任保险  

本文责编:chendongdong
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 宪法学与行政法学
本文链接:https://www.aisixiang.com/data/171019.html

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统