辜凌云:具身智能侵权中产品责任与过错责任的制度冲突与规范协调

选择字号:   本文共阅读 56 次 更新时间:2026-03-21 21:17

进入专题: 具身智能   产品责任   过错责任  

辜凌云  

 

【摘要】产品责任与过错责任分别回应工业产品缺陷与人类行为失范的规制需求,但具身智能的自主决策机制使两类归责体系的规范前提均受到冲击。具身智能的侵权风险生成于“感知—决策—执行”的行为链条之中,自主决策因素在不同环节的介入程度存在差异,由此出现产品缺陷与人类过错交织的复合责任形态。基于此,具身智能侵权的责任配置应当遵循类型化路径,建立以自主决策能力为核心的识别标准,依据行为链条各环节中自主因素的介入程度,区分为产品缺陷单独致损、使用者过错单独致损、共同致损及致损因果交织等四种形态。在责任界分层面,以行为控制力判断各主体的风险程度,以最小成本回避能力理论确定预防激励的合理配置,构建面向受害人便捷救济的对外归责规范与实现责任合理分配的对内追偿机制,辅之以责任保险与损害赔偿基金作为补充性救济渠道,形成产品责任与过错责任协调运行的规范体系。

【中文关键字】具身智能;产品责任;过错责任;自主决策;责任配置

 

一、问题的提出

具身智能作为当前人工智能技术发展最迅猛的产业之一,凭借其前瞻的应用能力和落地发展势头成为当前金融资本竞相追逐的对象。受到技术和资本的双重驱动,具身智能的发展并非遵循单线的技术逻辑,其应用导向形成以满足市场需求为主的技术发展思路,这样的发展模式在认知尚未统一和规则尚未形成一致的前提下,天然伴有市场寻租和突破规则底线等诸多问题的产生。如作为最典型具身智能形态的机器人、机器狗、无人车等已经在城市安防巡逻、社区管理、商业综合体服务等多元场景中被加速部署和广泛测试,客观上对传统的人力配置方式和公共空间秩序产生了影响。随着部分具身智能产品逐步具备半自主甚至高度自主决策能力,其在事故发生时的责任划分远远超出了传统侵权责任和一般安全监管逻辑所能涵盖的范围。

但应当注意的是,由于当前技术发展速度超乎想象,对具身智能技术路线的理解和市场应用方式的拓展都处于探索阶段,资本投放也伴有随机性和游戏性,对于具身智能出现的潜在侵权风险也具有不可预料性,此时对其侵权的判断和救济应当在安全底线性思维的引导下进行规则设计或规则适用,以促进及保障产业能够安全地持续发展。当前对具身智能侵权责任适用的研究主要聚焦于责任承担形式、责任主体认定、使用者注意义务,以及涉及数据隐私保护、操纵性风险、事故责任排除等具体问题的分析,现有研究由于无法对具身智能社会角色进行清晰刻画,并未深度触及具身智能行为是通过“感知—决策—执行”的架构方式实现与相对人或外部环境进行交互的这一本质特征,在此技术交互模式下,对其可能造成的侵权行为无法判断人类决策和机器决策在具身智能行为中何为主导因素,也因此在责任的分配中如果侵权风险的产生并未明确是基于人机混合、基于单纯人类引导或机器自主决策,就更难对具身智能侵权行为的判断形成清晰认知,也容易陷入直接适用产品责任施加于具身智能以完成侵权判断这样简易粗暴的认知思路中而破坏具身智能产业创新积极性等发展问题。

基于此,本文试图在现有研究基础上就具身智能侵权判断中适用产品责任与过错责任的原则选择进行推进分析,在明确产品责任和过错责任的规范结构前提下,剖析其所要实现的不同制度目标和制度功能,在目标论的引导下,建立以具身智能自主决策能力为核心判断的划分标准,分析自主决策和人为决策混合下如何实现责任的分层配置,建立起人机混合模式下具身智能侵权的责任界分标准,以行为控制力和最小成本回避理论作为对该标准进行比例配置的细化实施方向和认知考量,建立起面向对外救济和对内追偿的责任安排和规则衔接机制,最大化保护具身智能研发者、应用者、分发平台和社会公众的利益。

二、产品责任与过错责任的制度逻辑及其在具身智能侵权中的适用困境

在现行侵权法的制度规范中,过错责任与产品责任分别构成了规制人类行为失范与工业产品缺陷的两大基石,二者在长期的制度演进中形成了泾渭分明的适用边界与功能定位。然而,具身智能技术的崛起正在从根本上冲击这两套归责体系的规范前提,其自主学习和自主决策能力使两套归责体系均面临适用上的困境乃至失灵的风险。

(一)产品责任与过错责任的规范结构与适用要件所建构的制度目标

在侵权法的规范体系中,产品责任与过错责任构成两种归责逻辑不同的制度安排,分别回应着不同历史时代与社会情境下的规范需求。过错责任以行为人的主观可责性为归责核心,强调个体对自身行为后果的道德担当;产品责任则以产品缺陷的客观存在为归责基础,着眼于现代工业社会中风险的合理分配与受害者的有效救济。二者在规范目的、构成要件与制度功能上的差异,决定了各自独特的适用场域与运行逻辑。因此,在探索具身智能侵权的责任适用前,有必要分别梳理过错责任与产品责任的规范结构及其制度目标。

过错责任的制度目标可以体现为制度的预防功能、制裁功能和补偿功能,我国关于过错责任的规范结构主要体现于《中华人民共和国民法典》(以下简称《民法典》)第一千一百六十五条第一款“行为人因过错侵害他人民事权益造成损害”的条文意涵中,该法条使得过错责任作为损害赔偿请求权基础的体系定位得以明确,同时也为侵权责任形式的类型化区分提供了规范依据。在这一归责原则下,只有受害方举证证明加害方存在过错,方能就自身因侵权行为造成的损失主张救济。因此,过错这一概念在一般侵权的构成要件中居于核心地位,具体而言,过错责任的规范基础建立在对行为的道德可责性评价上,这种评价预设了行为主体具备认识能力与意志自由,能够理解其行为的性质及可能引致的后果,并在此基础上作出符合社会预期的行为选择。其中,过错包括故意与过失两种形态,前者更关注行为人的主观态度和对结果的意图,后者则采取一种更为客观的标准,关注行为人是否采取合理措施避免损害的发生。司法裁判中,对过失的判断往往会转化为对善良管理人注意义务之违反的认定,并可进一步细分为职务义务、先行行为所产生的义务等类型。

作为侵权法的基本归责原则,过错责任的制度目标主要体现在对行为自由与权益保障的动态平衡中。从行为自由的角度出发,过错责任为行为人的活动空间提供了更为宽广的制度保障。人类早期社会奉行的结果责任原则,其规范目的并非在于填补受害人所遭受的实际损失,而体现为对维护社会稳定的价值追求,其公法属性远重于私法属性。而在十九世纪后,过错责任的确立使得行为人无需为其无法预见或无法控制的损害后果承担责任,这为商业发展和创新活动起到了不可替代的促进作用。从矫正正义的视角出发,过错责任源于行为人在特定社会互动中因违背注意义务致人损害而产生的道义补偿责任,但随着风险因素的复杂化,将特定损害后果清晰回溯至单一主体的道德过错越发困难,这一分析框架逐渐式微。而从经济效率的视角分析,过错责任的制度目标体现为通过归责的激励机制引导社会资源的优化配置,实现社会总成本最小化的效率目标,“汉德公式”为此种效率分析提供了主要的理论工具,即判断行为人是否尽到合理注意义务的标准在于行为人未采取的预防措施的成本是否低于预期事故成本,这使过错责任形成的规则能够引导行为人采取具有成本效益的预防措施。此外,过错责任制度也有助于使每个民事主体均为自己的过失行为负责,激励行为链中的各方主体采取措施防范风险,这对于高度复杂的具身智能产业链具有较强的适配性。

与之相对,《民法典》第一千二百零二条规定的产品责任是典型的无过错责任,依据《民法典》《中华人民共和国产品质量法》的相关规定,产品责任规则设计包括产品存在缺陷、损害事实、产品缺陷与损害事实之间存在因果关系三个要件,而并不考虑生产者是否存在过错。欧盟2024年提出的《缺陷产品责任指令》前言也指出,包括人工智能系统在内的软件属于产品且适用无过错责任。近年来,规则设计上均有将产品责任应用于人工智能致害归责的尝试,如欧洲议会《机器人民事法律规则决议》明确指出生产者对产品故障负有责任的法律框架,与使用者对其致害行为负有责任的侵权规则,均可适用于因机器人或人工智能造成的损害情形,这意味着研发生产端的风险责任更有可能适用产品责任的归责模式。我国《人工智能医疗器械注册审查指导原则》《工业和信息化部关于加强智能网联汽车生产企业及产品准入管理的意见》等规范文件也具有将智能医疗企业、智能汽车等具有现实影响的人工智能应用作为产品监管的倾向。在学术界,也不乏有学者认可以无过错责任原则作为处理高风险人工智能,甚至全部人工智能致害问题的归责的判断标准。

同过错责任相比,产品责任的确立和演进标志着现代侵权法由关注道德可责性的过错纠正逻辑转向关注社会风险分配与效率最大化的分配正义逻辑。可以发现,产品责任的核心制度目标在于通过免除受害者对生产者过错的举证责任,降低受害者寻求救济的制度门槛,其性质在本质上属于侵权责任,规定的是销售者对用户、消费者承担的产品瑕疵担保责任,从而对缺陷产品的受害者提供有效救济,这在技术链路复杂且模型开发者掌握关键信息的具身智能垂类领域尤为重要。同时,产品责任能够有效激励生产者提升产品安全性能,通过威慑效应迫使理性生产者在事前必须进行成本收益分析,即当预期的法律责任成本高于提升安全性能的边际成本时,生产者必然会选择优化设计、加强质检或完善警示,以规避潜在的巨额赔偿。相较于个体消费者,生产者在承担责任后,可以通过多种机制实现损害的社会化分散,如可将责任成本或增加的安全成本通过保险制度分摊,借助保险人对风险的专业评估与汇聚机制实现损失的分散化。最后,产品责任制度作为事后干预机制,能够与事前的行政监管体系形成互补关系,共同服务于产品安全治理的整体目标,从而有效促进侵权归责与事前监管之间的协调互动,共同维护市场秩序与消费者权益。

(二)自主决策语境下两类责任的适用失配与冲突难点

如前所述,在传统侵权法语境下,产品责任和过错责任分别具有不同的规范结构及各异的制度目标,然而,具身智能系统的自主决策机制从根本上影响了这两项假设的规范适用基础,即通过自主性的技术逻辑使得产品责任与过错责任的规范适用均面临困境。

自主性是具身智能相较于传统机器设备的核心差异点,具身智能的核心在于能够通过其身体机构来学习和适用环境,执行精确的物理任务,它强调了身体、大脑和环境之间的相互作用,它不再被看作孤立的计算过程,而是被视为生物体与环境互动的结果。传统工具执行的是人的意志,其行为完全可预测、可控制、可追溯,功能输出严格遵循预设程序的线性逻辑。然而,具身智能驱动的系统本质上要求具身智能具有第一人称主动性,通过与外部环境及其他智能体的主动交互,实现自主学习乃至自主行动决策。就自主学习而言,具身智能在与外界环境交互的过程中,不断收集新的数据和经验,通过学习和适应提高自身的性能和智能水平。通过物理具身智能、虚拟具身智能和真实环境之间的持续交互,可以不断地在各种情境下学习和实践,提高对动态开放环境的适应能力,这种适应能力使得系统行为超出了设计者的预设范围,系统可能发展出设计阶段未曾预见的功能或行为模式。就自主决策而言,具身智能基于多感官环境信息的综合考虑以及“感知行动回路”,能够理解外界指令、分解任务、规划子任务,根据需求作出合理的决策,并实时控制智能体的行为,以尽可能可靠地完成物理世界的指定任务。然而,这种自主决策的过程往往呈现高度的非线性与不可解释性,形成人类理性难以穿透的“黑箱”,这就导致设计者的初始意图与系统的实际行为之间可能产生断裂,使得具身智能可能的致害行为往往超出设计者的预见范围。

具身智能的自主性动摇了传统过错责任的一系列逻辑前提,导致过错责任难以适配具身智能侵权的情形。传统的过错责任关注行为人本身的故意或过失形态,预设意识作为故意的必要条件,人类行为背后总有可以理解的动机,无论是利益驱动、情感冲动抑或疏忽大意等等,这些动机使得其行为具有道德可评价性,为过错责任提供了正当性基础。然而,具身智能的行为是算法优化的结果,其决策链条中仅存在输入数据、权重矩阵与激活函数的运算,缺少道德层面的可谴责性。而过错责任对过失的认定依托于善良管理人这一具体标准,其假定善良管理人能够预见其行为的潜在后果,然而由于具身智能算法的黑箱特征,系统设计者亦无法准确预测特定情境下的具体行为,这也就很难认定侵权主体违反注意义务而构成过失。传统的侵权行为呈现分散化、个性化特征,不同行为人的能力和道德水平各异,一般不会发生集中性的侵权行为,因此对故意或过失的判断常表现为个案判断的问题。然而,具身智能侵权的风险是集中且同质的,一旦其中的算法或策略出现风险,则可能出现批量的侵权行为,这与传统的过失侵权规则并不适配。因此,传统的过错责任的功能实现主要依赖于对侵权主体的惩戒和对潜在侵权行为的威慑,然而自主的具身智能系统本身不会感知到惩戒也无法受到有效的威慑,这直接在规范功能上挑战过错责任的构成逻辑。

与此同时,具身智能的自主性特征也对基于工业标准化预设的产品责任体系提出了一系列挑战。从责任基础上看,一般产品由生产者或设计者创造产生,处于人类的完全控制之下,要求生产者承担产品责任具有充分的依据,生产者也毫无疑问属于降低产品责任成本最低的相关方。然而,具身智能系统虽然由生产者生产,但其能够突破人类生产者的预置概念与经验法则,通过收集多模态数据并自我创建行为规则。此时继续由生产方为其无法控制的系统自主行为负责,既不符合过错原则的基本精神,亦可能对产业创新产生抑制效应。从产品缺陷的认定上看,具身智能的自主学习能力使得缺陷认定面临根本困难,其致害行为的产生并非全部是生产设计者在生产过程中遗留的缺陷,而可能是算法演化的自然结果。将此种演化结果归类为“缺陷”,既不符合缺陷概念的通常理解,亦难以为生产者的责任承担提供规范依据。从司法实践上看,具身智能技术的复杂性和算法的不透明性可能增加未知风险的范围,使制造商、开发者更频繁地诉诸发展风险抗辩。具身智能模型提供商、云服务提供商和硬件提供商的分离,亦可能使得产品提供方的认定出现新的难题。

三、以自主决策能力为核心判断的具身智能侵权责任划分标准

具身智能形态具有多样性且其决策机制具有复杂性,其侵权行为在不同的维度上呈现不同的表现形式和特点。具身智能侵权也如同被丢入水中的石头,形成了强度不一、风险不同的行为形态,这一差序格局为构建类型化的归责原则提供了认识论基础。

(一)自主决策下的侵权行为链条

侵权行为链条是连接行为与损害的因果序列,其结构决定了责任归属的判断路径。传统侵权法预设的行为链条以人为中心,其逻辑前提建立于主体对行为的掌控关系之上,唯有对特定行为施加有效影响的人才负担与此相应的责任,因而呈现为意思形成—行为实施—结果发生的线性逻辑。行为人基于认知与意志作出决定,通过身体动作将该决定付诸实施,继而在外部世界引发损害后果,这一链条的核心特征在于行为主体的单一性与因果流向的可追溯性。

具身智能的行为生成则基本遵循感知—决策—执行的闭环架构,感知环节负责环境信息的采集与处理,决策环节基于算法模型生成行为指令,行为环节则驱动物理结构完成动作。三个环节构成闭环使得具身智能系统在与外部环境的持续交互中不断迭代,将这一技术架构投射至侵权法的分析框架,可以识别出行为链条的三重结构转型。

第一重结构转型为主体结构从单一转向多元分布。传统侵权行为链条的各环节通常由同一主体完成,意思形成与行为实施之间存在明显的因果和归属关系。具身智能的行为链条则由多元主体分工协作而成。感知层的传感器选型与配置由设计者决定,决策层的算法架构与训练数据由开发者提供,行为层的机械性能与安全冗余由制造商保障,系统投入使用后的监测与维护则由运营者负责。损害发生时,行为链条的不同环节实际承载着不同的技术贡献,责任归属因此呈现分散化特征。

第二重结构转型为因果流向从线性转向闭环。传统行为链条呈现单向的时序推进,意思先于行为,行为先于结果。具身智能的行为链条则是持续迭代的闭环结构,执行结果反馈至感知层从而影响下一轮决策。以上逻辑表明特定时点的损害可能并非源于该时点的单次决策,而是系统在多轮迭代中逐步学习的结果。初始人类行为与最终损害后果之间形成了冗长且边界模糊的归因路径,特定输出究竟应归咎于某一主体的义务违反,还是系统基于反馈数据的自发演化,往往缺乏明确的判断标准。侵权行为的可追溯性和可预见性变弱,二者之间的因果关系已出现分散。

第三重结构转型为行为环节从人的意思转向算法推理。传统侵权法将意思作为连接行为与主体的纽带,过错的判断也以行为人的认知与意志状态为基础。具身智能的决策环节由算法模型完成,系统在特定环境下依据训练所得的参数数据与逻辑自主生成行为指令,无需人类在每一步骤上进行即时干预。有 OpenAI 技术人员指出,模型在迭代训练过程中可能呈现出难以事先预料的特性,且一旦形成便难以逆转。这种自主性并非类人的自由意志,而是指系统能够独立完成从环境输入到行为输出的映射过程,其决策逻辑涉及复杂的算法、训练数据、模型架构、学习算法、软件代码和决策规则等,这些因素中存在的任何缺陷或不足都可能显著影响具身智能系统的性能,且往往难以被外部观察者完全理解与预测。

行为链条的上述结构转型使得具身智能在侵权认定中难以被追溯因果关系及判断过错。损害结果固然可以追溯至执行层的物理动作,但该动作的生成源于决策层的算法推理,而算法推理的逻辑又取决于设计阶段的架构选择与训练阶段的数据输入。具身智能的自主决策是算法、算力、数据、人机交互等多种因素共同作用的结果,因其仅具有限的可解释性,不能通过检查底层编码来验证,很难确定损害是源于产品缺陷、使用不当,还是系统的自主错误决定。因果关系的难以确定可能导致侵权行为人无法判断,不利于受害人救济目标的实现。同时,用以证明过错的证据多由服务提供者或制造商掌握,且相关证据材料往往涉及较高的专业技术门槛,倘若仍由受害人就相关主体的过错承担证明责任,其举证空间将十分有限,败诉风险亦将因此显著上升,进而影响有关的创新活动。

(二)行为链条中的侵权风险生成与自主决策能力识别

侵权风险并非静态地存在于行为链条的某一固定环节,而是在系统运行的动态过程中逐步累积与释放。在不同环节所生成的风险中,部分风险仍可纳入传统产品责任的分析框架,部分风险则因涉及算法的自主判断而呈现新的特征,因此,准确识别自主决策因素在各类风险中的介入状态是归责原则类型化配置的前提。

1.感知环节的风险与自主决策因素的有限介入

感知环节的风险通常源于信息采集与处理的局限,需要区分两种情形:一种是由于传感器的纯粹硬件故障或物理性能不足,如雷达元器件老化导致探测距离缩短、摄像头镜片污损导致图像模糊。这类风险的生成与自主决策因素无关,本质上属于传统产品缺陷的范畴。另一种则是感知数据的解读环节出现偏差,这一过程涉及算法对传感器原始数据的处理与识别,属于自主决策因素介入的领域。如美国佛罗里达州特斯拉车祸案中的自动驾驶系统未能识别前方大型货车致使车辆全速碰撞并造成驾驶者死亡。感知系统的响应迟滞及由此引发的决策偏差是此类事故发生的关键诱因。

2.决策环节的风险与自主决策因素的全面介入

决策环节是风险生成的核心环节,也是自主决策因素全面介入的环节。在这一环节中,算法架构的选择、训练数据的筛选、损失函数的设定以及部署后的策略更新,虽然由人类设计者启动,但一旦训练开始,模型便通过算法在数据中自主学习,其参数的具体数值与最终状态不再完全由人类预设的规则所决定。正是这种由人类设定框架而由系统自主学习的特性使得具身智能系统的缺陷呈现独特的归因结构,即此类缺陷往往并非源于制造过程中的偏离,而是源于设计选择本身的不当,包括训练数据中的偏差、算法架构的缺陷等。

然而,将此类缺陷纳入产品责任归责框架时,面临的困难在于设计缺陷的判断难以脱离过错认定。与制造缺陷不同,设计缺陷和警示缺陷的判断本身包含了过错证明的成分,有学者指出,判断一项设计危险属于合理还是不合理,其方法更接近过失的认定。德国学界的通说立场亦将产品责任视为过错责任的有限变体,借助客观化的安全基准加以衡量,产品缺陷概念与过失行为概念呈现内在亲缘性,对缺陷的判定实质上指向生产者是否履行了交易安全所要求的注意义务。因此,不论在形式上将设计缺陷责任界定为严格责任抑或过错责任,其在责任成立的判断方法上均与过错责任具有实质趋同性。

在具身智能领域,设计缺陷的既有判断标准存在适用难题。就消费者期望标准而言,具身智能系统的高度复杂性和不透明性使消费者难以对具身智能系统的性能和安全性形成合理期望。就“风险—效用”标准而言,要求受害人对具身智能系统的复杂代码和算法进行技术分析并找到更安全的替代设计既不现实,也会给受害人带来过重的证明责任。可见,即便在形式上适用产品责任,实质上仍需依赖过错判断,对于决策环节产生的风险,产品责任中的缺陷概念难以完全独立于过错判断而适用。

3.执行环节的风险与自主决策因素的边缘介入

执行环节的风险生成相对直观,机械结构的设计缺陷、元器件的老化失效、控制信号的传输延迟均可能导致执行结果偏离决策指令。这一环节的多数风险属于传统产品缺陷的范畴,自主决策因素的介入程度较低。但现代具身智能系统的执行层往往内嵌局部控制器,负责将上层决策指令转化为具体的电机驱动信号,这些局部控制器可能采用自适应算法实时调整控制参数,当局部控制器具有一定的自主调节能力时,执行环节的风险便可能与自主决策因素产生边缘关联。

(三)基于自主决策链条的责任指向与责任层级配置

前文依据自主决策因素的介入程度对侵权风险进行了类型划分,但风险类型的判断有赖于对具体系统自主决策能力的准确识别。在自动驾驶分级领域,国际汽车工程师协会制定的 J3016标准与中国国家标准 GB/T 40429-2021《汽车驾驶自动化分级》均将自动驾驶分为六个等级,从 L0的无自动化到 L5的完全自动化,核心区分标准是系统在动态驾驶任务中承担决策职责的范围与深度。这一分级框架虽然针对特定应用场景,但其背后的分析逻辑所表明的一般化价值在于,自主决策能力的高低取决于系统在何种条件下、以何种方式、在多大范围内独立作出判断。这一判断并非二元对立的定性问题,而是程度渐变的定量问题,系统的自主决策能力可能随技术迭代与应用场景的变化而处于不同层级。相应地,责任配置亦应呈现梯度特征,与系统的自主程度形成正向关联,即系统自主决策能力越强,开发者与制造商的责任份额越高,人类干预空间越大,使用者的注意义务越重。欧洲议会(机器人民事法律规则决议)第56条即贯彻了上述理念,明确各方所负责任应与其对机器人控制指令的层级以及机器人实际自主水平之高低保持比例关系,系统所具备的学习能力或自主性愈强且训练周期愈长,则训练实施者所承担的责任愈重。

沿此思路,本文认为具身智能的自主决策能力可从以下三个维度展开识别:第一为任务复杂维度,考察系统能够独立处理的任务类型与环境条件范围。能够在结构化环境中执行单一任务的系统,与能够在开放环境中应对多元任务的系统,其自主决策能力存在质的差异。第二为人机交互维度,考察系统运行过程中人类监督与干预的必要程度。需要人类持续监控并随时准备接管的系统,与能够在较长时间内独立运行的系统,在责任分配上理应有所区别。第三为学习适应维度,考察系统是否具备在部署后根据新数据调整行为模式的能力。具有在线学习能力的系统,其行为可能逐渐偏离初始设计状态,由此增加了责任认定的难度。

上述能力识别的意义在于为责任指向的判断提供依据,如前所述,对于非自主决策介入型风险而言,责任指向遵循传统产品责任的分析逻辑。对于自主决策完全介入型风险与自主决策部分介入型风险而言,责任指向的判断需要沿行为链条进行更为精细的追溯。可以尝试将算法架构的设计缺陷指向开发者,训练数据的偏差可能同时涉及数据提供方与算法开发方。深度学习模型的训练依赖海量数据,数据的采集、清洗、标注等涉及多个主体的分工协作。当算法因训练数据偏差而产生歧视性输出时,责任在数据提供方与算法开发方之间如何分配,取决于双方对数据质量的控制能力与注意义务的具体约定。

四、基于自主决策的人机混合模式下责任界分机制与规范协调路径

类型化分析框架为责任指向提供了判断依据,但责任指向的确定仅解决了谁可能承担责任的问题,尚未回答各责任主体之间如何分配责任份额以及归责原则如何协调运行的问题。当损害涉及多个责任主体、产品责任与过错责任发生竞合时,责任的具体界分与比例配置需要更为精细的操作机制。

(一)基于人机混合过错类型化的责任竞合形态展开

具身智能的自主决策能力构成责任划分的核心识别标准,而这种自主决策本质上是人类设计与机器运行相结合的人机混合模式。在此模式下,产品缺陷与人类过错往往交织共存,产品责任与过错责任的竞合成为常态。就前者而言,无过错责任的正当化根据在于风险开启者对其所创设风险造成的损害承担填补义务,同时为防止行为自由受到过度抑制,立法通常配套设置若干免责事由与责任上限规则。就后者而言,过错责任亦可借由提升注意标准、推动标准客观化、适用过错推定等技术手段强化对受害人的救济效果,从而在功能层面向无过错责任靠拢。两种责任形态之间的这种趋近性,为具身智能侵权的归责体系构建提供了融通的可能。解决这一竞合问题的关键,在于依据产品缺陷与人类过错在损害发生中的作用关系建立类型化的认定标准,进而为不同类型配置相应的归责路径。

依据上述思路,可将具身智能侵权的责任形态区分为四种基本类型:第一种为产品缺陷单独致损型,系统因设计缺陷、制造缺陷或警示缺陷导致损害,使用者的操作完全符合产品说明与合理预期。第二种为使用者过错单独致损型,产品本身不存在缺陷,损害完全源于使用者违反操作规程或超出产品设计用途的不当使用。第三种为产品缺陷与使用者过错共同致损型,产品存在缺陷,使用者的操作亦存在过失,两者共同作用导致损害发生。第四种为因果交织型,产品的缺陷状态干扰了使用者的正常判断,使其作出在正常情况下不会作出的错误决策。上述四种类型的划分对应着不同的请求权基础与归责路径。其中,产品缺陷单独致损型适用产品责任的无过错归责原则,使用者过错单独致损型适用过错责任的一般规则,后两种类型则涉及责任在多个主体之间的分配。

对于共同致损型而言,生产者与使用者之间通常不存在意思联络,难以构成《民法典》第一千一百六十八条规定的共同侵权而承担连带责任,而第一千一百七十一条规定的分别侵权造成同一损害且每一行为均足以造成全部损害的情形,在具身智能侵权中亦属少见。多数情形符合《民法典》第一千一百七十二条的规范构造,即产品缺陷与使用者过错分别作用于损害的发生,能够确定责任大小的各自承担相应责任,难以确定的平均承担。在此框架下,责任份额的确定取决于各因素的原因力大小,而自主决策因素的介入程度构成原因力判断的核心变量。具言之,系统的自主程度越高,人类干预的可行性越低,产品缺陷的原因力权重便应相应提升。反之,若系统设计预期人类持续监控并随时接管,而使用者未能履行监控义务,则使用者过错的原因力权重应相应提升。

因果交织型的处理需要在共同致损型的基础上进一步考察介入因素对因果关系的影响。在因果交织型中,产品缺陷对使用者决策失误的诱发作用构成介入因素,需要判断该介入因素是否足以中断产品缺陷与损害之间的因果关系。若产品缺陷所创造的错误决策环境具有高度诱导性,使用者的决策失误属于缺陷风险的正常实现,则该类型实质上应归入产品缺陷单独致损型处理,生产者不能以使用者过错为由主张减免责任。若使用者的决策失误明显超出产品缺陷的可预见风险范围,构成对因果关系的中断,则应按共同致损型处理,生产者的责任相应减轻。这一判断标准的确立,旨在避免生产者通过设计模糊的人机交互界面来转嫁本应由其承担的风险。

上述类型化认定与归责路径的确立,需要在请求权行使层面获得程序性规则的支撑。具身智能系统的技术复杂性导致受害人在起诉时往往难以判断损害究竟是源于产品缺陷还是使用者过错,若要求受害人先行查明损害原因再选择请求权基础,将显著增加其诉讼成本。因此,受害人选择权的行使不应以预先查明损害原因为前提,其可在诉讼中同时主张产品责任与过错责任,由法院依据查明的事实确定最终的责任承担方式。

(二)基于行为控制力与最小成本回避者的责任界分与比例配置

从侵权责任的补偿和预防功能出发,规则设计要考虑不同行为主体对风险的控制力和预防能力。在侵权责任法的研究中,卡拉布雷西较早提出了“最小成本预防者”的概念,认为现代侵权责任法应当将责任分配给能够用最小成本防止事故发生的主体。在此分析框架下,经过妥善设计的侵权规则应当同时发挥双重功能,既激励安全增强型技术的研发投入,又促使高损害成本且缺乏对应效益的技术退出市场。具体而言,责任比例的配置以风险控制力与预防成本效率两项标准为基础。

风险控制力标准着眼于各主体对损害发生的实际贡献及其控制能力。在具身智能侵权中,算法架构缺陷、训练数据偏差、运营维护疏失、使用操作失误等因素各自对损害结果的贡献程度构成责任份额分配的基础依据。传统侵权法理论中的控制支配思想要求只有控制危险的人方可承担责任,但这一标准难以直接适用于具身智能领域,因为人类的有限参与极大弱化甚至架空了人类对算法决策过程的控制,无论哪个主体都无法达到传统理论中的控制程度。因此,风险控制力的判断应当从相对意义上展开,考察各主体在行为链条中的实际影响力。从这一角度看,提供者在系统的初始架构设定、训练数据筛选、算法模型选择以及学习能力配置等关键环节均具有决定性影响力,同时掌握着产品市场投放与否的决策权,并在产品流通后持续保有介入使用过程与实施风险预防的技术条件。基于开启特殊危险者应就此种危险给他人造成的损害承担赔偿责任的法理,提供者应当承担较高比例的责任。

预防成本效率标准着眼于激励最优预防投入。汉德公式揭示了预防投入 B 与损害发生概率 P 及损害后果严重程度 L 三者之间的经济关联。当预防成本低于预期损害(B < P × L)时,采取预防措施便具有效率上的正当性。沿此分析框架,倘若生产者本可以合理代价降低产品风险却未为之,则表明存在可行的更安全替代方案,产品则应被认为构成设计上的缺陷。比较各主体的预防成本需要关注规模效应与专业化优势。开发者对同一批次产品的改进可以惠及所有用户,其预防投入具有显著的规模经济性,而单个运营者或使用者的预防投入则仅能降低自身面临的风险。开发者在算法安全领域的专业知识通常优于运营者与使用者,其识别风险与采取预防措施的能力更强。依据预防成本效率标准,责任配置应当向开发者适度倾斜。但当损害源于运营者的不当使用或使用者的操作失误时,将责任完全配置于开发者会产生道德风险,削弱运营者与使用者的预防激励。法经济学研究指出,当损害并非由单一行为造成时,无过错责任容易降低整个社会对人工智能应用的注意标准,而过错责任将激励每一个相关主体采取相辅相成的努力防止损害的发生。

基于上述两项标准的分析,产品责任的无过错归责原则应当继续适用于具身智能产品的生产者,使用者则仅在存在过错时承担责任。对于开发者而言,其在人工智能系统的架构设计、研发推进与模型训练等环节居于主导地位,对系统的功能表现与运行逻辑享有决定性话语权,并凭借其在核心技术源头的支配优势成为主要获益方,理应承担更大责任。而使用者注意义务的课予须以其对损害发生具备合理预见可能性与避免可能性为前提。具身智能系统的自主化水平愈高,使用者在操作过程中的实际干预空间愈小,相应的注意标准要求也随之降低。当系统行为的异常性超出一般使用者的预见与控制能力时,不宜认定使用者存在过失。

责任比例应随系统状态与使用场景的变化而调整,这一动态性源于具身智能的两个特征。其一为运行模式的差异性,同一系统在不同运行模式下可能呈现不同的自主程度,以自动驾驶为例,系统在高速公路巡航模式下的自主决策能力与在复杂城市路况下的自主决策能力存在差异,自主程度越高,人类干预的可行性越低,开发者与制造商的责任份额便应相应提升。其二为生命周期的演进性,系统在生命周期的不同阶段行为特征可能发生变化。经过长期运行与在线学习的系统可能比初始部署时具有更高的自主决策能力,或者因策略漂移而表现出与设计预期不符的行为特征。若损害发生时的系统行为已与出厂状态存在实质差异,开发者能否证明其设计符合当时的技术标准、运营者是否履行了对系统行为的监测义务,将影响最终的责任份额。

(三)面向对外救济与对内追偿的双层责任安排与规则衔接

具身智能侵权责任的制度设计需要兼顾两个层面的目标。对外层面需确保受害人能够便捷、充分地获得救济;对内层面则需实现责任在各相关主体之间的合理分配,使最终责任负担与各主体的风险贡献相匹配。

对外救济层面的制度安排应当贯彻受害人便捷救济原则。具身智能系统的生产与运营涉及多元主体,受害人面对复杂的责任主体往往难以判断应当向谁主张权利,若要求受害人在起诉前即准确识别责任主体并证明其过错或产品缺陷,将显著增加救济成本,不利于损害的及时填补。对此,受害人可以向产品的销售者或系统的运营者主张赔偿,由该主体先行承担对外赔偿责任,再依据对内追偿规则向其他责任主体追偿。

对内追偿层面的规则构建旨在实现责任的最终合理分配。先行承担对外赔偿责任的主体,有权依据各责任主体的过错程度与原因力大小向其他主体追偿,追偿比例的确定标准与前述责任比例配置规则保持一致。在追偿过程中,合同约定与法定追偿的关系需要妥善处理。具身智能产业链中的各主体之间通常存在合同关系,开发者与制造商之间的技术许可合同、制造商与销售商之间的经销合同、运营者与服务提供商之间的运维合同均可能包含责任分配条款。合同约定的责任分配对当事人之间具有约束力,但不得对抗受害人的法定请求权,亦不得通过约定将责任完全转嫁于缺乏风险控制能力的主体。

然而,具身智能系统的行为生成涉及感知、决策、执行的多环节协作,特定损害究竟源于哪一环节的缺陷或过失,有时难以通过技术鉴定准确判定。若因果关系无法查明而导致受害人求偿无门,有违损害填补的基本法理。对此,损害赔偿基金或行业共济机制可以作为补充性的救济渠道,由具身智能产品的生产者、开发者按照销售额或风险等级缴纳基金,用于赔偿因果关系无法查明案件中的受害人损失。共济基金的制度定位应当坚持补充性特色,即当受害者通过保险赔偿、向责任方索赔等常规途径无法获得充分赔偿时,方可申请此基金进行补充性的经济补偿。

责任保险制度可为上述救济机制提供更为稳定的资金保障。具身智能产品的致损风险具有低概率、高损害的特征,单一事故可能造成严重的人身伤亡或财产损失。根据危险责任理论,鉴于具身智能系统内含难以完全掌控的技术风险,通过强制责任保险制度建立风险社会化分散机制以保障赔偿资金来源便具有制度上的必要性。在各方均不存在过错的侵权损害场合,可经由保险机构的赔付实现对受害人损失的填补。对此,北京市、深圳市等部分地区已在立法上作出相关尝试。有学者进一步主张,应当将保险责任和投保义务从传统的所有者或使用者更多分摊乃至转移到开发者和制造商一方,通过改进代位追偿制度激励保险公司设计新机制并分担部分人工智能创新风险,或者通过强制保险机制实现风险的社会化分散,而非退守调整归责原则或免责事由,这也可成为弥补无过错责任严苛后果的重要措施。

五、结语

具身智能凭借其对现实世界的直接介入能力、对复杂场景的感知与决策能力,以及对人类行为模式和社会运行方式的重塑潜能,正在突破传统侵权责任格局的内在边界,成为现行侵权法体系必须正面回应的新型对象。这一形态下的侵权风险并非单纯源自产品缺陷或单纯源自人的过错,而是由算法迭代、场景部署、人机协作等多种因素交织构成,呈现出决策自主性、行为链条延展化、风险生成过程不透明化等特点。由此,以产品责任为核心的客观归责模式与以过错责任为核心的主观归责模式,在具身智能侵权情形中逐渐显露出适用适配的现实困境。面对这一趋势,归责原则不能简单维持既有划分,更不宜通过机械叠加两类责任加以应对,而是需要在坚持保护受害人、维护交易安全与促进技术进步基本目标的基础上,重新审视具身智能所带来的行为形态与风险结构,合理界分和协调产品责任与过错责任的适用框架与衔接机制,使法律规则能够真实回应具身智能技术发展与应用扩展所带来的制度挑战。

从规范运行的角度看,产品责任与过错责任对具身智能侵权的规制并非彼此孤立,而是在不同层面、通过不同路径共同作用于以自主决策能力为核心的新型责任结构。一方面,需要在解释论层面细化两类责任制度的适用前提与功能分工,以具身智能的自主决策能力、人机混合控制以及风险预防能力分布为基础,厘清何种情形应当优先适用产品责任以保障对外救济的集中与高效,何种情形需要通过过错责任强化对研发者、运营者、使用者等主体的行为规范与安全义务;另一方面,还应当关注两类责任在竞合与衔接中的制度协调,通过对行为链条、控制力大小、最小成本回避能力等因素的综合考量,在责任承担、责任分配以及内部追偿等层面形成可操作的配置规则。在具身智能加速发展并持续嵌入生产生活各领域的背景下,推动产品责任与过错责任在规范目标、适用结构和责任后果上的协调与互补,不仅是化解新型侵权风险的迫切需要,也是维护侵权法体系整体稳定性与适应性的内在要求,更是在新技术条件下实现法治秩序自我调整与良性演进的必然方向。

【作者简介】

辜凌云,北京大学智能学院{助理研究员,法学博士。

    进入专题: 具身智能   产品责任   过错责任  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 民商法学
本文链接:https://www.aisixiang.com/data/173916.html
文章来源:本文转自《科技与法律》2026年第1期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2025 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统