赵精武:论人工智能法的多维规制体系

选择字号:   本文共阅读 3360 次 更新时间:2024-05-20 22:19

进入专题: 人工智能法   科技创新   风险预防   市场激励  

赵精武  

 

【摘要】法律和技术的互动关系始终是现代法学研究的核心内容,特别是在人工智能技术领域,风险预防和控制已经成为重要的研究路径。然而,这种风险预防导向的治理范式在科技创新促进方面的作用存在局限性,仅能在技术应用违法性层面提供明确指引,避免科技创新发生方向偏差,无法直接作用于科技创新活动本身。而结合早年的科技法学研究来看,市场激励的治理范式能够有效在人才、资金、成果等创新要素层面促进创新。但是市场激励范式存在市场失灵等问题,可能降低创新主体的创新动力。纵观科技创新的社会实践发展,科技创新本身属于一个复杂性工程,单一的治理范式并不能有效推动人工智能技术创新,而需要采取“风险预防—市场激励—创新资源保障”的综合治理范式。同时,还需要在立法层面实现从“技术安全法”到“促进技术创新”的重心转变,建构基于综合治理范式的“人工智能技术促进法”。

【关键字】人工智能安全;科技创新;风险预防;市场激励;创新资源保障

 

一、问题的提出

法律与技术之间的互动关系促使现代法学延伸出数字法学等一系列新型的法学研究模式,特别是面对日新月异的人工智能技术,法学学者针对深度合成、算法推荐服务、生成式人工智能产品等常见技术应用方式,纷纷开始论证以预防科技滥用风险、规范技术应用方式和引导科技良性发展为目的的技术治理框架。其中,兼顾技术创新与技术安全显然成为绝大多数治理框架论证的法理基础。因为无论是ChatGPT、Sora等功能强大的新型人工智能产品,还是过去被学者们所关注的区块链、云计算、大数据等信息技术,均无法脱离“收益与风险并存”的客观规律。所以,如何在保障技术应用安全的前提下,实现最大程度的技术创新成为法学学者重点论证的研究议题。

然而,在这种法益平衡论的视角下,技术治理的相关研究却产生了另一种研究趋势,即以各类技术风险类型为研究导向,建构各类技术安全风险规制体系。自《网络安全法》制定以来,国内网信领域的立法进程稳步推进,针对人工智能、算法应用等客体的法律法规相继出台。当然,这种立法趋势并不能简单理解为“应急式立法”,其目的在于防止确保法律与技术之间的“落差”不会因为技术创新周期缩短而进一步扩大。这种技术风险治理逻辑确实符合现代社会风险实践特征,并且,从法理层面而言,法律规范对特定技术应用方式的限定或禁止也能够促使技术按照合法合理的方式进行创新。但是,这种研究倾向导致了学界对“法律如何促进技术创新”这一根本性问题的忽略。风险预防和治理属于促进技术创新的应有之义,但不是促进技术创新的全部内容。从近年来的网信领域立法成果来看,以“安全”为名的规范性文件数量激增,我国网信安全立法体系已经初步成型,后续的立法重心更应当回归到促进技术创新这一核心目标。在经历过短期的“立法空白”之后,信息技术创新所产生的风险类型已经基本能够被现行立法体系所涵盖,即便是人工智能技术,所涉及的数据安全风险、算法歧视风险等部分风险也可通过《数据安全法》《互联网信息服务算法推荐管理规定》等法律法规予以预防和控制。

时值人工智能技术应用发展的重要阶段,不少学者基于立法时机已经成熟等事由主张建构人工智能技术的统一立法。这类统一立法若以“人工智能安全法”等类似表述命名,是否能够真正全面回应技术创新诉求,显然存有疑义。因此,重新审视和思考法律如何促进技术创新具有其必要性。并且,从技术安全到技术创新的重心转向不仅仅是通过增设政策支持性条款、鼓励性条款即可实现,更需要从人工智能技术治理的基本原则和基本制度架构等层面,解释风险预防规则和促进创新机制之间应如何进行内容衔接。

二、人工智能科技创新治理的第一类范式:安全风险预防

人工智能技术治理的法学研究大致可以以ChatGPT的出现作为两种不同研究重心的分界线。在“前ChatGPT时代”,学者们更关注的并非是人工智能技术本身,而是人工智能技术底层的算法应用安全问题。在“后ChatGPT时代”,学者们开始将研究重心回归至人工智能技术应用本身,并且更多地论证生成式人工智能的应用安全问题。

(一)前ChatGPT时代的研究路径:算法风险治理

在ChatGPT出现之前,人工智能技术本身并未成为学界的研究重心,其原因是此前的人工智能产品或服务的智能化水平远远达不到目前的水平,且在商业实践中,虽然也存在不少以人工智能技术为名的智能客服,但其实质是按照事前确定的固定模板向用户提供极为有限的回答内容。在技术尚未成熟或者尚未形成阶段性创新突破之前,过早地讨论人工智能技术的治理路径或规制方式,不啻为缺乏社会实践支撑的“超前研究”或“假想式研究”。事实上,在研究初期,有关强人工智能的法律规制理论就已经存在并受到质疑。且不论强人工智能技术是否能够真正实现,仅凭技术层面的设想就建构一个法学问题,并提出“如果不提前预防就会导致不可控风险”之论断,已然超出法律回应技术创新的适当范畴。类似研究议题并不少见,例如,基于元宇宙等技术的虚拟空间强奸罪定罪量刑问题、人工智能技术作为法律主体的可能性等问题,使得早期的研究活动呈现“真问题”与“伪命题”并存的尴尬局面。为此,也有不少学者提出质疑,甚至指出人工智能法学研究已经出现了“反智化现象”,即法学研究者正在代替人工智能技术专家,以“AI+法律”的任意组合,预言未来的技术应用方式。

在此阶段,学界的研究视角主要包括算法安全监管和具体的应用场景。在算法安全层面,由于算法本身属于人工智能技术应用的重要组成要素,加之个性化信息服务业态的普及,预防算法歧视、保障算法透明等理论主张往往与人工智能技术治理理论整合于同一研究范畴。在早期的研究活动中,算法一度被排除在法学研究的主流范围之外,这是因为算法属于纯粹的技术环节,而非法律应当调整的具体法律关系或者特定的信息服务产品。但是,随着用户画像、定向推送等信息服务模式的兴起,学者们对于算法黑箱等问题愈发关注,并延伸出算法透明、算法备案、算法影响评估等制度建构主张。这些主张的共性在于,意图通过不同形式的“公开”机制,预防和控制隐藏在算法背后的权益侵害风险。这种“公开”机制的内在逻辑又可划分为两类:一是立足于知情权的保障,要求服务提供者对算法应用的基本原理、权益影响程度等重要事项进行事前说明和评估,形成了算法透明义务等理论主张;二是立足于算法的可问责性,否定“算法具有技术中立特点”等类似理论主张,强调通过算法备案、算法审计等机制,在不影响技术创新的前提下,在事后阶段判断服务提供者是否存在与事前备案、审计结果相悖的行为,进而实现法律责任的苛责。

在此研究阶段,已经有部分学者关注到有关人工智能生成物的可版权性问题,其争议核心主要在于人工智能生成物是否满足著作权法意义上的“作品”之内涵。多数意见认为人工智能生成物并未彻底颠覆著作权法理论体系,或是类比法人作品条款,或是基于知识产权正当性依据所指向的激励理论,又或是基于人工智能生成的内在技术原理,人工智能生成物成为“作品”的条件包括“外观形式与人工创作作品难以区分”和“生成过程具有一定的创造性”。当然,在这些学理论证中,学者们同时也强调对技术创新的激励和保障,并不一概否认人工智能生成物成为“作品”的可能性。并且,部分学者也提出“标注制”等主张用以协调人工智能创作物的必要保护需求与人类智慧创作积极性的保障需求,还有学者直言赋权人工智能生成物并不会造成所谓的“人类作者创作作品的经济动因会消失”等结果,更需要从激励产业政策的角度实现各类作品的“大丰富时代”。

综上来看,这一阶段的研究成果虽然在研究视角、研究路径上存在差异,但本质上都在回答两个基本问题:其一,人工智能技术创新是否对既有的法律关系造成实质性变更,如著作权领域,人工智能生成物并没有实质改变著作权法体系,而是对“作品”概念的解释方式提出挑战;其二,人工智能技术创新是否可能或已经对个体权益产生负面影响,无论是算法应用安全监管,还是“AI+法律”的定向场景论分析,均在强调以立法控制技术创新可能产生的潜在技术风险。

(二)后ChatGPT时代的研究路径:人工智能风险治理

在ChatGPT面世之后,生成式人工智能技术治理瞬间成为法学研究的热点领域,这种因某一个特定技术产品而引发的法学研究重心变更可谓是“史无前例”。这是因为ChatGPT实际上代表了人工智能技术已经发展到全新阶段,呈现出部分学者所指出的“全新”技术风险。为此,相应的研究重心也转变为“法律如何回应新型的技术风险”,部分研究成果按照“技术风险类型列举——各类技术风险对应相应的治理建议、立法建议”等论证逻辑实现法律对技术风险的有效控制。具体而言,这些技术风险主要表现为“数据安全风险”“科技伦理风险”“犯罪工具风险”“网络信息内容安全风险”“侵害著作权、肖像权风险”等。但是,仔细剖析这些风险类型,“全新”的技术风险这一命题似乎难以自证而立:用户输入数据的保护问题仍然属于个人信息保护和数据安全问题;科技伦理风险本质上还是属于算法歧视等问题;犯罪工具风险所指向的滥用深度合成行为完全可以通过刑法和《深度合成管理规定》等现行立法予以解决;网络信息内容安全风险所指向的“利用人工智能生成网络虚假信息”同样可以通过《网络信息内容生态治理规定》等予以监管。故而有学者指出,生成式人工智能所产生的技术风险部分属于已有问题的凸显,部分属于新型法律问题。

这种新旧问题并存的研究现状也使得人工智能治理延伸出新的研究路径,即建构整体性的人工智能治理架构。在前ChatGPT阶段,研究路径主要是针对特定应用场景进行法律解释或局部性的监管型立法;在后ChatGPT阶段,研究路径主要是建构体系性和完整性的人工智能治理规则,并且这种建构主张的重心除了继续延续前一阶段的算法风险治理,还延伸出“促进人工智能产业创新发展”等内容。此外,在《互联网信息服务算法推荐管理规定》第一条中,立法目的主要是“规范互联网信息服务算法推荐活动”;而在《生成式人工智能服务管理暂行办法》第一条中,立法目的则转变为“促进人工智能健康发展和规范应用”,相应的上位法依据也增加了《科学技术进步法》。这种立法目的的转变实际上也表明了我国人工智能治理范式开始强调法律对科技创新的促进作用。

遗憾的是,这种人工智能治理范式的转变主要还是依循“通过预防人工智能应用安全风险,推动人工智能技术又好又快发展”的基本逻辑。特别是在欧盟通过《人工智能法》之后,欧盟模式采取“禁用不可接受的风险类型”“重点监管高风险类型”“有限风险或轻微风险类型”和“低风险类型”的四层风险治理架构,更是让不少学者提出按照风险水平分层次治理人工智能技术的理论主张。因此,当Sora、 Claude等更加强大的生成式人工智能产品出现之后,法学研究的重心开始逐渐向建构人工智能统一立法的方向转移。因为这些后续出现的生成式人工智能产品实现了高度智能化的技术目标,但在法律层面,相应的技术风险也趋于稳定化和类型化,未能产生远超立法者想象的技术效果。技术风险的相对确定性也使得专门规制论的论证重心变为了“如何建构体系化的统一监管立法”,其核心的论证要素依然是“技术风险”和“安全保障”。在某种程度上,风险预防已经成为人工智能法学研究领域的“通用范式”,不少学者在各自的制度建构主张中也将“风险预防”或者“安全保障”作为法律基本原则之一。尽管风险与安全两个词时常同时出现在数字法学研究中,但两者并非二元对立关系,与“风险”相关的法律价值还包括“可信”。在“没有绝对安全的技术”的共识基础上,法律对于技术风险的治理效果开始强调基于“相对安全”形成社会公众对技术应用的信任,以此实现技术创新的普及应用。

(三)研究路径转变背后的方法论审视:风险预防论的局限性

随着数字法学、数据法学、网络法学等概念的兴起,法学研究实际上已进入“预防型法治”和“风险导向型法治”的全新研究阶段。在传统法学研究过程中,学者们更关注基于法教义学逻辑在法律适用层面进行论证技术应用背后的法律问题。例如,在早年“快播案”中,快播公司通过免费提供相关网络通信服务允许任何人发布自己的视频资源,其经营模式也引发了是否适用技术中立原则的探讨。刑法学者的研究路径则是立足《刑法》第363条和《关于办理利用互联网、移动通讯终端、声讯台制作、复制、出版、贩卖、传播淫秽电子信息刑事案件具体应用法律若干问题的解释(二)》相关规定,判断快播公司在传播淫秽物品中是否存在“不作为的传播”的犯罪行为。在现代法学研究过程中,各类层出不穷的技术创新风险促使学者们的研究路径转向了“风险预防和控制”。实践层面的原因在于,这些技术风险所导致的损害结果难以通过事后救济手段实现理想状态下的“恢复原状”;理论层面的原因在于,这些技术风险对既有的法律关系产生不同程度的影响,单纯以权利义务的理论变更作为解决方案并不足以回应技术风险的特殊性,更需要通过风险预防和控制维系法律关系背后的公平正义。因此,也有学者将人工智能法学领域的研究路径总结为“以安全原则、公平原则为导向,展开风险义务分配、风险救济责任归属等层面的风险治理体系”。

值得注意的是,环境污染、食品药品安全等问题同样属于典型的科技创新风险,为何只有信息技术创新风险受到法学研究前所未有的关注?从损害结果层面来看,环境污染、食品药品安全等科技风险直接关系到自然人的生命健康,通常属于无争议的重点监管领域。虽然这些科技创新仅仅只是“有可能”导致损害结果,但是一旦“存在严重的物理损害,必然会引发灾难性的后果”。这种灾难性后果也意味着政府采取严格的监管手段预防损害后果发生具备当然的正当性基础。相对应地,信息技术创新风险在绝大多数情况下,并不会直接对自然人的生命健康产生威胁,故而如何确定行政监管的必要性和合理性成为学界争议焦点之一。在《电子商务法》立法过程中,安全保障义务究竟是否应当扩张到网络平台经营者的所有业务活动中存在较大争议。但是,最终的立法文本采用了将安全保障义务适用于网络平台经营者部分业务的基本立场,并将“关系消费者生命健康的商品或者服务”作为该类义务适用的限定条件。之所以采取这样的立场,一方面,技术风险预防的目的是更好地促进技术创新应用,避免营利导向的市场竞争机制催生非法的科技应用,例如利用信息技术监控员工工作情绪、工作状态的变化等;另一方面,现代社会的信息技术创新风险在治理方式上存在特殊性。过去法律回应信息技术风险的方式通常是直接对网络平台经营者的义务内容及其履行方式予以明确,通过注意义务解释平台经营者对新兴技术应用的法律责任。但是,人工智能等信息技术创新风险的预防难以直接从平台经营者或网络信息服务提供者等义务主体层面实现,愈发需要从技术环节、技术原理层面实现全环节的风险预防效果。原本不属于法学研究“主流议题”的算法也开始成为数字法学领域主要的研究客体,《生成式人工智能服务暂行办法》甚至将“数据标注”这一研发活动纳入调整范畴。

诚然,这种风险导向的治理路径在很大程度上满足了科技应用监管的基本需求,借由主体义务的承担,明确技术研发者、提供者相关行为的合法性边界。这种治理路径表面上确实满足了“通过风险预防规范科技创新应用”的科技治理理念,但“风险预防”终究不是“技术创新和发展”的全部内容。法律在促进科技创新层面的作用方式除了预防技术安全风险实现“科技又好又快创新”之外,还包括提升科技创新内在驱动力,实现科研机构、企业持续推进科技创新进程等方式。客观而言,人工智能产业尚处于探索发展阶段,即便是ChatGPT等一众生成式人工智能产品,依然或多或少地存在技术缺陷。倘若在人工智能统一立法中依然将风险预防作为核心内容,显然难以满足当下人工智能产业创新发展所需要真正解决的现实问题。进一步而言,现有的人工智能法学研究对于“法律促进科技创新”这一核心目标存在研究视角多元化程度不足的问题,未能从“提升科技创新内生动力”和“保障科技创新物质条件”等层面建构系统性的科技创新治理体系。

三、科技法学视域下促进科技创新的方法论建构

(一)科技法学研究视角的演进过程

在人工智能技术治理领域,除了安全风险预防之外,《科学技术进步法》《促进科技成果转化法》等法律法规所体现的研究维度一度被忽视。在早期研究中,“科技法学”的概念曾被部分学者所提出,但由于该概念无法在研究范畴、研究对象等环节自证其独立性而受到质疑。但是,科技法学的研究视角演进却能够为建构系统化科技创新治理体系提供更为多元化的研究视角。

在早期的研究活动中,以部门法划分研究领域成为主流,科技法这类以特定领域法律关系为调整对象的研究活动未能受到重视。有学者认为“我国科技立法工作起步甚晚,从有限的科技法律出发是难以形成比较全面的看法”,故而早期的科技法研究重心更倾向于在立法论层面建构促进科技创新的法律制度体系。时至今日,科技法的相关研究形成了以基础科研、科技成果、科技人才、科技行政管理等为要素的科技法范式体系。科技法学研究的特殊性在于,学者们普遍意识到纯粹从法律制度层面解决科技创新动力不足等实践问题缺乏可操作性,转而更侧重从市场经济发展需求切入,解决科技成果转化过程中存在的权益归属不明、成果评价体系混乱等制度障碍。虽然在理论层面论证科技法基本原则和具体制度的正当性确有必要,但科技法学在证成“法律如何推动科技创新”这一命题时,其内在法理逻辑是通过市场激励机制增加科技创新的内生动力,而非通过行政命令等强制性方式强行推动科技创新。因此,科技法学的相关问题反而更加受到公共管理等非法学专业的关注,这些非法学专业研究者通过实证分析对《科学技术进步法》《促进科技成果转化法》等法律法规的实施效果进行量化评估,进而提出相对应的立法建议。

科技法学与人工智能法学两种研究视角的差别在于,科技法学的研究对象是科技创新活动,人工智能法学的研究对象则是人工智能技术的具体应用,这不可避免地导致各自的研究结果存在显著差异:前者的研究结论侧重为科技创新活动提供必要的行政管理和制度保障,后者的研究结论更侧重通过部门法层面的方法论解决各类技术风险。在科技法学的研究视角下,“法律如何推动科技创新”并没有转化为技术应用监管问题,而是转变为“法律能够通过何种方式影响或刺激到科技创新活动”。对这一问题的回应,多数意见仍然是围绕科技研发、科技成果转化和保护、科技人才培养三个核心要素建构相应的科技法律制度:在科技研发方面,法律可以根据市场发展趋势、国家治理需求等目的对所有领域或特定领域的基础技术研发设置专门的监管机制;在科技成果转化和保护方面,法律可以将知识产权保护机制与科技成果投融资机制、中介服务监管机制以及收益分配机制进行整合,形成从研发到商业应用的全方位保障体系;在科技人才培养方面,法律借由人才举荐、职称评定、荣誉认定等管理机制的规范化实现科技人才的涌现和特定领域科技人才的重点培养。

在2021年修订《科学技术进步法》后,科技法学的研究重心也从具体制度的建构设置转向了科技立法的体系化建构。在部分学者看来,以问题导向的科技法容易受到内部机制不协调的限制,特别是在科技法研究领域不断扩充的背景下,“法秩序内部的规范性和目的性使其彼此之间不至于混乱无序”。在数字时代,科技法中的“科技”不仅包括生物科技、环境自然科技等传统科技,还囊括了信息技术科技。这种研究范畴的扩张意味着科技立法需要完成内在具体规则的协调统一,而非以“具体科技+法律”的形式零散分布。最常见的理论主张是基于基本原则完成法律体系和法律适用层面的统一:或是以协同性原则、实效性原则、体系化原则以及前瞻性原则建构科技创新法律体系;或是按照“战略规划—法律制度—政策措施—内部规范”的现代科技治理体系,实现科技立法与科技政策措施的系统设计;又或是以科技投入法、政府采购法、知识产权法和合作研究法作为科技法的四类核心构造规范。此外,在受到美国《拜杜法案》中“市场配置创新资源”的立法逻辑的影响后,还有部分学者逐渐发现科技立法的内在逻辑不能采用“政府主导”的陈旧思路,科技创新发展离不开社会实践和市场机制的推动,更适宜采用“以市场为主导,以政府为补充”的治理模式。

(二)演进过程背后的方法论审视:法律如何促进科技创新

在传统法学研究中,法律与科技之间的互动关系往往被描述为科技改变法律意识、扩充法律内容,同时法律又保障科技创新。在早期的科技法研究中,也有学者提出科技对法律影响最深刻的内容是控制论、信息论和系统论,如控制论“研究系统的运动、状态、行为和功能”,法律是以社会生活、社会关系作为调控对象,控制论的引入能够产生“综合治理”等理论。至于法律对科技的影响,则被部分学者总结为“科技优先发展的战略地位需要法律加以确认”“科技活动引起的社会关系需要法律加以调整”“我国参与国际科技经济竞争与合作需要法律加以保护”“科技成果的非道德使用而可能造成的社会危害需要法律加以防治”四个方面。需要说明的是,这些法律与科技创新的相关论述大多是在方法论层面解释两者之间的作用方式,并未涉及具体法律制度如何实现提升科技创新这一实践层面的问题。随着此后科技立法工作的不断深入,学者们对于法律影响科技创新的方式的认识也发生了变化:过去的“政府-科研机构”“政府-科技企业”等单向行政监管模式不再被奉为圭臬,以市场为导向,建构多元创新主体共同参与的治理模式成为科技立法的核心理念,也有学者将之称为从“线性创新”“系统性创新”到“生态系统性创新”的治理范式转变。

在科技法学的研究体系下,科技法的规范类型通常被划分为科技基本法、配套的科技单行法以及附属性的科技立法,这三类法律规范恰好对应了法律在促进科技创新方面的三种不同路径:一是所有的科技活动共通性的法律问题,例如成果收益分配、科研成果转化等,法律需要对这些共通性问题设置统一性的基础性规范;二是针对特定科研活动,因其行业属性、科研环节等方面的特殊性,需要法律设置特殊规范明确禁止性条款或限制性条款,例如医疗临床科研活动中的相关试验禁止直接从人体实验等;三是科技创新活动还受到传统部门法的约束,需要法律进行一般法与特别法之间的规则协同。同时,“法律如何促进科技创新”也被部分学者转化为“现行立法为何无法有效促进科技创新”等同类问题,相应的核心观点则认为法律未能有效衔接市场激励机制与科技创新内生动力,导致出现科技创新的无序性、重复性等问题。具体而言,以政府职责为本位的科技法规范呈现虚置化趋势,其中涉及的政府职责具有空泛化特征,进而使得创新激励目标落空。提升科技成果转化率固然需要遵循市场经济的基本规律,但基础科研活动属于公共物品,市场调控很可能产生搭便车的负效应,反而会限制基础科研创新的积极性,难以发挥市场调控的激励效应。

总结而言,在方法论层面,科技法学研究和数字法学研究的差异性实际上展示了法律在促进科技创新层面的多维度性:首先,科技创新活动需要遵循客观规律,法律发挥促进作用的基本逻辑是通过解决影响科技创新的内外部因素,尽可能实现科技创新的“高效性”;其次,从科技创新治理实践来看,影响科技创新的因素主要包括三类:其一,安全风险可能影响科技创新成果的应用效率和产业创新方向。例如人脸识别技术最初的应用目标是兼顾识别高效性和服务便捷化,但实践中出现的“强制人脸识别”“私自采集人脸信息”“反人脸识别机制”等问题却影响到该项技术成果的应用效果。其二,科技创新主体是否具有内在的创新动力是直接影响科技创新的主要因素。在《科学技术进步法》等法律法规中,基础的立法思路是通过人才、资金、科研平台、成果转化等要素提升科技创新的内在经济动力。科技创新的目的之一是推动社会生产力发展,基础理论创新仅是科技创新生态的环节之一,其余环节则包括科技创新成果转化、商业应用等。因此,科技创新进程在一定程度上也受到市场分配机制的影响。其三,科技创新必要的物质条件可获得性同样能够影响到科技创新效率。市场分配机制因其内在的经济利益驱动模式而存在“失灵”的可能性,进而直接影响到创新主体获取科技创新必要物质条件的难易程度。基于这三类因素,分别延伸出三类不同的治理范式(参见下图1):其一,面对安全风险因素时,法律需要基于预防型法治理念,创设针对不同技术风险类型的主体义务内容;其二,面对市场分配机制时,法律需要实现“解放新质生产力”的目标,通过优化科技管理行政体系、细分知识产权保障模式、增设针对性扶持性财政政策等具体制度,提升创新主体内在的经济动机;其三,面对科技创新必备物质条件时,法律需要解决物质条件供给过程中可能存在的垄断、不正当竞争以及社会总体资源规划不足等问题。

图片

(三)法律促进科技创新的方法论体系:风险、激励与保障

法律作为科技创新治理的工具之一,相应的法律治理架构也应当遵循科技创新的实践特征,体现动态化、体系化和整体性特征。动态性特征是指法律治理架构应当能够与科技创新发展保持相对同步性;体系性特征是指法律治理架构应当实现内部规则的协调统一和外部规则体系的有效衔接;整体性特征则是指法律治理架构在面向特定技术时应当能够涵盖技术创新的各个技术环节和业务流程,例如国外学者认为人工智能监管应当建构类似航空旅行安全监管的“全流程监管框架”。风险预防导向和市场激励导向的研究范式各自存在相应的局限性,前者无法直接作用于具体的科研活动,而是通过外部的监管机制和内部的业务合规,在技术应用场景、科技伦理以及主体责任层面明确相应的制度规范;后者则无法彻底解决市场调节机制固有的局限性,基于营利导向的市场激励效应可能会使得原本属于公共物品范畴的科研成果私有化,且部分钳制科技创新的相关创新要素也存在被部分市场主体垄断的风险。因此,在科技创新治理体系中引入创新资源保障机制也就存在其必要性。按照动态化、体系化和整体性的治理架构要求,法律在促进科技创新方面需要采取综合性的治理措施,创新资源保障机制显然是填补风险预防机制和市场激励机制的必要制度工具,能够从“创新主体-创新成果-创新资金”“技术安全风险-技术应用合规”“创新要素保障-制度环境保障”三个不同的维度整合科技创新的促进要素。国外学者也认为人工智能治理策略并不能局限于某一类,存在“禁止性策略”“自我调节策略”“义务策略论”和“场景应对论”四类治理模式。

在风险预防层面,科技创新治理体系需要解决的风险类型主要以技术安全风险、应用方向偏离风险、技术合规风险三类风险为主。在科技创新活动中,不仅包括基础理论的创新突破,还包括科技创新成果的可用性。进一步而言,技术安全风险的预防和可控是实现基础理论创新与科技成果商业可用性的重要环节。在数字时代,信息技术创新的安全风险是与其创新功能相伴而生的,因此,在风险预防导向下,科技创新促进机制的作用在于将这类技术安全风险控制在可接受范围内。同时,科技创新也受到市场交易需求的影响,科技创新促进机制还需要对科技创新的成果应用方式和创新方向进行必要干预,即通过科技伦理审查、安全风险评估、合规审计等方式,避免出现以侵害合法权益为前提的创新性技术应用。

在市场激励层面,科技创新治理体系重点需要解决创新动力不足的问题。虽然《科技进步法》等现行立法在科技成果转化、产学研科技合作创新等领域作出了明确规定,但从基础理论创新到成果商业应用这一转化过程来看,不同领域的技术创新还需要专门性制度规范。例如,在智能网联汽车技术创新领域,基于云边端协同的网络通信架构实时对路况数据、驾驶行为数据等进行分析和处理确实能够有效缓解交通道路事故的发生概率。但问题是,从上路试行到日常普及使用,除了需要解决固有的技术难题,还需要解决行车数据收益分配、网络通信互联互通等制度问题。智能网联汽车的数据采集范围越大,所能实现的驾驶功能越强。在市场导向机制下,认可智能网联汽车对这些采集数据所享有的财产性权益确有必要。不过,在科技创新主体多元化的背景下,原本属于民法领域的数据财产权问题却也成为解决科技创新动力不足的核心问题。信息系统研发者、高速道路运营者等数据处理活动的参与者之间如何分配数据收益是直接影响智能网联汽车普及化的重要因素。

在创新资源保障层面,科技创新治理体系需要解决的是创新要素供给不足的问题。因为市场激励模式下的科技创新可能存在因垄断性经济活动而存在市场调节机制失灵的现象。除了基础理论研究无法直接通过市场调节进行供给之外,这种市场调节失灵现象还表现为三个方面:一是一旦市场不存在同类竞品或更优质产品,创新主体在短时间内反而缺少科技创新的经济动机。二是持有优质产品的创新主体存在海量用户时,可能会借由用户规模优势研发与一般产品兼容的次等产品,用以抢占次等产品市场竞争中的创新资源。三是部分创新资源属于公共物品,完全交由市场调节可能会使得在先的市场主体采用各种方式阻碍在后的市场主体获取相同的创新资源。

四、人工智能科技创新领域新型治理范式的嵌入

(一)第二类科技创新治理范式:市场激励导向

法律对于科技创新的促进作用并不全是依赖风险预防所实现,还包括基于市场分配调节机制影响到科技创新要素的调度、分配乃至成果转化。尽管现有研究已经在不同层面解释和论证法律应当如何推动科技创新,但此类研究议题未得到充分重视。因为“技术风险预防”和“市场激励创新”两种研究路径在法律价值层面均是以促进科技创新为目标,但是,市场激励导向的研究范式易导致相关研究陷入“科技政策”“法律实施效果量化评估”的研究模式中。相对来讲,风险预防导向的研究范式能够更直观地展现科技创新所面临的制度障碍解决方式。在科技创新发展尚处于探索阶段时,以技术风险预防为目标,仅设置禁止性规范而不设置授权性规范更符合审慎监管的基本要求。

客观而言,这种研究路径的分化并不利于建构整体性的科技创新制度体系,因为市场激励导向和风险预防导向都只能解决科技创新过程中的部分障碍。纵观中国科技创新的治理实践,科技创新治理活动实际上是一项系统性工程,并不是单纯依托某一种治理模式即可解决所有问题。科研机构、高新技术企业以及科研人才作为科技创新的重要主体,法律显然需要对这些主体的权利义务予以明确。但是,实践层面的科技创新系统工程更为复杂,这些创新主体相关的制度规范也仅仅是解决了收益分配、成果认定等问题,至于政府、科研人才、高新技术企业、中介服务机构、科研机构等不同主体之间的复杂法律关系并未得到真正解决。更为重要的是,促进科技创新的影响因素除了多元化的创新主体之外,还包括基础研发活动到成熟商业产品的各个业务环节,风险导向能够解决研发活动或者技术应用层面的业务合规问题,但不能解决科技成果转化问题。

针对法律与科技之间的价值互动关系,有学者提出了管制模式、回应模式和重构模式三类价值关系形态:管制模式表现为国家通过法律对技术发展进行管制;回应模式则强调技术发展的社会意义并非法律进行压制和驯化的基础,而是应当通过调整技术发展和社会冲突实现动态的自我调整;重构模式则是将法律价值与技术价值纳入重新评估和衡量的语境中,建构“整体性方案”,使得法律能够以更宽泛的架构容纳和论证技术创新问题,这也是学者所推崇的法律与科技价值关系的理想状态。人工智能技术的创新发展已经对现行法律提出挑战,然而未来人工智能技术究竟会发展至何种智能化水平以及呈现何种应用方式无从得知,如若按照重构模式的理论框架,法律不可能实现对未来技术风险的精准预防,却可以实现对未来技术风险的解释性适用。例如,在网约车平台兴起之初,这类科技创新所产生的业务模式本身并没有在现行立法中明确规定,但是通过对消费者权益保护、民法中的安全保障义务等具体条款的解释,使得网约车平台的义务范畴能够通过开放性的立法体系予以确定。即便未能提供最为有效的法律依据,这种重构模式也能够为技术发展产生的实践问题提供整体性的价值判断和归责原理,进而推导出是否有必要通过专门立法的方式解决技术发展问题。

不过,科技法的市场激励治理模式实际上包含了两类内容:一是通过市场自发调节,提升科技创新的市场导向和经济动因;二是通过理清科技行政管理、科技成果评价等方面的制度障碍,为科技创新提供必要的制度保障。后者的“保障”机制往往被学者们所忽视或者被市场激励理论所遮盖。通常而言,“制度保障”一词往往被解读为通过立法、修法、法律解释等方式解决影响科技创新的制度障碍,故而常被用于描述促进科技创新的效果评价。需要澄清的是,市场激励导向的研究范式不可避免地需要解决市场调节机制失灵的问题,风险预防导向的研究范式仅能实现技术应用的合规问题,如人工智能技术创新所需要的训练数据、算力资源则无法通过这两种研究范式予以解决,反而需要以政府干预为基础的“保障机制”解决科技创新的基础性难题。

(二)第三类科技创新治理范式:创新资源保障

在科技创新活动中,阻碍因素除了技术风险和创新动机不足之外,还包括创新能力不足。所谓的创新能力不足是指创新主体自身缺乏科技创新必要的条件、资源和技术能力,除了科研技术能力不足属于创新主体自身原因之外,条件不足、资源不足则是法律需要介入和干预的重要领域。法律保障科技创新的基本逻辑表现为法律通过行政监管、立法活动以及产业政策等手段,促成创新主体与创新资源之间形成互动关系。从过往的科技创新实践来看,这些创新资源既包括科技创新所必需的资金投入,还包括科技创新所依赖的产业供应链或者社会公共服务。资金投入问题完全可以通过政府财政扶持、科技创新成果投融资机制等制度规范予以解决。但是,其他创新资源在某种程度上具有社会公共属性,既无法通过市场调节机制进行高效分配,也无法通过事前风险预防解决创新资源供给不足的现实问题。因此,这类创新资源的供给不能完全交由市场调节,更需要行政干预等方式消除潜在的创新资源不可获取风险。例如,数字基础设施作为数字科技创新的基础性资源,需要在国家层面进行统筹规划和资源调度供给。如若交由市场自行调节,则可能增加创新主体获取科技创新资源的投入成本。

创新资源保障导向的治理范式更加侧重如何通过法律制度实现创新资源的开放性和可用性。在该语境下,所谓的“保障”实际上包含了两层含义:其一,保障科技创新的平等性。在科技法领域,市场激励模式备受推崇的原因之一正是科技创新活动本身具有竞争性特征,为了达成更加理想化的功能和目标,不同创新主体也会基于不同的目标推进科技创新进程。因此,这种市场竞争性特征也决定了在法律层面确保科技创新平等权的必要性,避免出现因为创新资源分配不均可能导致的科技创新动机不足等问题。当然,这里的“平等权”也仅仅以相对平等为限,即任何创新主体在相同条件均能够获得必要的创新资源,但是由于创新主体在人员、资金、前期技术积累等方面的差异性,获取创新资源的规模、范围以及实际效果也会产生相应的差距。其二,保障科技创新的公正性。保障平等性是为了解决创新资源的可获得性问题,而保障公正性则是为了解决创新资源的可用性问题。市场激励导向的治理范围虽然可能保障创新资源的可获得性,但这种可获得性在市场调节机制失灵的情况下可能会被设置诸多使用障碍。部分创新资源的提供者可能会以获得创新成果收益权作为创新主体使用创新资源的前提条件,这无疑地会使得部分创新主体缺失必要的科技创新积极性。

创新资源保障导向的治理范式本质上是以科研自由为基础理论。《科技进步法》等法律法规也多次提及保障“科研自由”之要求,《宪法》第47条更是将“科研自由”作为基本权利予以明确,而“科研自由”的基本内容不单指科研人员、科研活动不受到外部不合理的干涉,还包括创新资源的可获得性和可用性。在既有的研究成果中,科研自由往往指涉科研经费自主权、科研成果收益权、获得国家支持等具体权利,这类观点实质上仅关注到“自由”的外观表现,忽视了实现“自由”的外部条件考察。倘若创新资源受到严格管制,科学研究活动无疑会间接受到影响,特别是在创新资源的获取被设置不公平、不合理限制条件的情况下,所谓的“科研自由”不过是纸上谈兵。科研自由保护体系应当是由保障权、收益权和救济权三项内容构成,收益权是指创新主体能够通过科学研究活动获得相应的经济收益(包括社会荣誉等)。救济权则是指创新主体在科研自由受到不正当干涉时,有权拒绝这种干涉;在造成损失时,也能够获得司法救济。保障权是指创新主体有权公平合理地利用创新资源进行科学研究活动,该项权利也是前两项权利的前提条件。因为保障权强调创新资源的可用性和可获得性,避免将创新资源作为创新成果收益分配的正当性依据,创新主体可以免受因创新资源提供者设置不合理条件而导致的对自身的创新成果收益权的侵害。同时,保障权也将干涉科研自由的范围延伸至间接干涉创新资源的获取,创新主体也能够实现更全面的科研自由救济效果。

(三)人工智能科技创新治理领域的两类范式嵌入:以公共数据供给为例

在人工智能科技创新活动中,影响科技创新的核心要素主要包括训练数据、算法模型和算力资源。其中,高质量、大基数的训练数据能够持续提升人工智能算法模型的功能——扩大人工智能技术的实际应用场景。不过,在数据财产权理论建构的大背景下,直接将企业数据作为具有公共属性的创新资源显然不具有可操作性,故而在相关产业政策文件中,将“公共数据”作为人工智能技术创新的重要数据来源。例如,《国家新一代人工智能创新发展试验区建设工作指引(修订版)》提及围绕数据开放与保护等方面开展政策先行先试,“探索建立人工智能原始创新的体制机制”;《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》明确将“集聚人工智能场景数据资源”作为创新要素供给的重要内容;浙江省《关于加快人工智能产业发展的指导意见》则提出“推动高质量数据集建设”“统筹推进人工智能公共数据资源库建设”。这些中央或地方的产业政策实际上已经注意到人工智能技术创新活动中高质量数据供给不足的瓶颈问题,而公共数据自身又具有公共属性,且这些数据在数量和质量层面远超一般的企业数据。在法律制度层面解决公共数据的开放和使用问题,在很大程度上能够满足人工智能技术创新的训练数据需求。在前述三类科技创新治理范式下,公共数据开放和使用的制度建构实际上也被划分三个层面的问题(参见图2)。

图片

在风险预防导向下,法律促进人工智能创新的研究议题转变为如何平衡数据安全与数据利用这一数据安全治理领域的“经典问题”。因为公共数据能够反映一定的社会经济状况或者公共服务现状,公共数据与其他数据相互结合还可能产生识别特定自然人的安全风险。尽管地方政府相继出台了公共数据安全管理和开放使用的相关规范,且在实践中也在试点推行公共数据开放使用,但从实践情况来看,公共数据的供给现状远远无法满足人工智能技术创新需求。因此,在该治理范式下,公共数据开放使用的主要制度内容则是公共机构和授权使用公共数据市场主体之间的数据安全法律责任分配问题。并且,这种数据安全保护目标同样归属于一般意义上的数据安全治理体系,数据分级分类保护等基础制度也同样适用于公共数据开放使用。

在市场激励导向下,法律促进人工智能创新的研究议题转变为如何协调各类创新主体之间就公共数据的使用收益进行市场化分配。尽管公共数据作为公共物品,但是数据处理者、数据加工者以及人工智能技术研发者在数据处理活动中享有何种收益权是公共数据开放使用亟须解决的现实问题。特别是在面向基于公共数据所完成的人工智能技术创新时,倘若按照贡献程度确认收益,则有可能削减人工智能研发者的研发积极性,因为自身的科技成果收益有可能因为公共数据处理者的介入而减少预期可得的实际收益。因此,公共数据开放使用的主要制度内容则包括公共数据确权、公共数据授权、公共数据收益分配等财产性制度规范。

在创新资源保障导向下,法律促进人工智能创新的研究议题转变为如何建构公正公平的开放使用机制,确保市场创新主体能够平等地获取用于训练算法模型的训练数据资源。事实上,在既有的研究中,已经有部分学者提出公共数据开放的基本原则应当包括公平原则、效率原则等内容,其中的公平原则主要针对的是“有条件开放”的公共数据,强调任何市场主体在相同条件下应当具备相同的公共数据获取能力。这里的“有条件开放”本身并不意味着某种程度的“市场歧视”,而是在风险预防导向下所形成的公共数据安全治理体系需要结合数据类型采取不同的开放使用路径。但是,这种分类开放模式若交由市场主导调节,有可能导致这类公共数据成为部分创新主体的垄断性竞争优势。此时,创新资源保障这一治理范式则需要明确将违背公平获取公共数据资源的具体情形予以排除,进而实现三类治理范式层面的科技创新治理体系的规则衔接。

五、科技创新视角下的人工智能技术治理架构

(一)科技创新促进的方向定位:人工智能技术的法律性质

在厘清“法律如何促进科技创新”这一方法论层面的问题之后,接下来需要回答的问题则是如何建构以技术创新为核心立法目标的“人工智能技术促进法”。在按照前述三类治理范式论证立法基本原则和具体规则之前,还有一个基础性问题需要予以澄清,即人工智能产品或服务的法律性质如何认定。这个问题看似属于民法学领域的法律性质认定问题,用以解决研发者、服务提供者、用户以及监管机构之间的法律关系内容,与所谓的促进科技创新并无直接关联性。然而,这个问题却直接关系到在科技立法层面如何确定相应的技术监管立场和监管理论。结合过往的科技创新实践来看,当前相关的法律研究普遍存在“技术概念营销”泛滥的问题,一旦社会层面对于技术概念、技术发展水平以及技术应用场景形成偏差认知,则会影响立法者对相关技术产品或应用法律性质的认定。尤其是在一项创新性技术尚处于探索发展阶段时,不当的技术概念营销反而会使得社会公众对于技术产品或服务的法律性质产生认知偏差,进而导致法律性质、社会公众认知以及监管模式的“错位”。

这种技术概念营销行为本身并不具有违法性,甚至在商业活动中可能产生技术概念普及的推广作用。除了技术概念营销行为本身可能存在的虚假宣传、恶意营销等违法性之外,在促进科技创新层面,这种技术概念营销更需要在制度层面明确其合法性边界。在元宇宙概念刚被提出之初,各类技术概念营销活动相继涌现,有学者专门就元宇宙技术概念的舆情状况进行量化分析,发现“灌水帖约占半数”,这种比例“侧面印证了元宇宙的概念性较强,缺乏进行技术性讨论价值的特点”。这种尚处于技术概念的技术特征反而使得法律回应的方式开始出现偏差,风险预防导向的治理范式则延伸出面向元宇宙技术应用可能产生的新型风险进行规制之结论。为此,这种研究结论也被质疑缺乏社会实践基础,因为法学研究不同于其他学科的研究范式,更需要关注具备一定技术实践的具体法律关系。正常的技术概念营销属于市场经营活动的必然选择,但这并不能作为法学研究的现实依据。一个尚处于技术概念阶段的技术应用不适宜过早地纳入法学研究视野之下,特别是产业界根本未能形成明确技术应用路线时,以风险预防为核心的研究路径必然会陷入超前预防或“无差别适用既有法律规范或理论范式”的尴尬境地。

人工智能技术也同样面临着类似的问题,即在ChatGPT、Sora出现之后,生成式人工智能技术被营销为已经能够具备超高智能化水平的技术阶段”修改为:生成式人工智能技术被“营销”成已经进入具备超高智能化水平的技术阶段。这种对人工智能技术能力的过高期待使得相应的立法活动和学理探讨都受到潜移默化的影响。生成式人工智能产品或服务属于典型的信息服务产品。若该项技术与其他信息服务产品相互结合,其法律性质则会根据所结合的信息服务类型而有所变化。但在现阶段,市面上流通的各类生成式人工智能大多是以人机对话界面呈现,并没有依托具体的应用场景。一旦用户通过询问生成式人工智能产品有关最近的新闻时事、旅游路线、检索周边有名医院时,该类产品的法律性质是否会发生变化尚未达成多数意见。按照这些信息检索呈现功能,该类产品似乎又具有搜索引擎、点评信息平台等法律特征,这也延伸出“研发者、服务提供者是否需要就生成信息存在错误时承担相应的法律责任”等问题。进一步而言,如果确认该类法律责任应当成立,这显然又超出了既有人工智能技术的发展水平,但是如果按照“陪伴式机器人”等概念用以界定这类产品或服务,又有可能使得研发者、服务提供者以技术水平发展不足为由逃避法定义务的承担。因此,在“人工智能技术促进法”的立法活动中,首先需要明确的是,人工智能产品或服务属于一种可能存在生成信息内容不准确的特殊类型信息服务。

(二)基于三类治理范式的立法论原则

在促进人工智能技术创新方面,风险预防、市场激励和创新资源保障三类治理范式实际上对应了“安全可靠原则、经济效益原则和基础设施保障原则”三项立法论原则。

安全可靠原则是指人工智能技术研发和应用应当满足能够确保技术安全风险控制在可接受范围。具体而言,安全可靠原则包括三个要素:一是符合安全技术标准和法定安全管理义务。人工智能技术的创新方式应当符合法律法规有关技术安全保障的强制性规定;同时,在具体应用场景中,应当优先采用符合通用安全技术标准的技术架构、通信协议;二是既能够有效预防常见的技术安全风险,也能够在网络安全事件中快速恢复基本功能。所谓的“风险可接受”是指人工智能产品或服务应当能够有效抵挡常见的网络攻击,事前预防数据泄露、员工擅自携带用户数据等常见风险事件。同时,虽然人工智能信息系统总是存在不同程度的技术缺陷,但是至少应当保障在发生技术故障或外部网络攻击时,能够快速恢复正常信息服务功能;三是符合科技伦理审查要求。因为信息技术创新的周期越来越短,这使得法律越发难以保持与科技创新的同步性,针对技术创新过程中可能存在的“人类主体地位客体化”“算法歧视”等科技伦理风险,人工智能技术的应用方式理应以保护人格尊严和自由为基础,在设计研发、商业应用等各个科技创新环节进行科技伦理审查。

经济效益原则是指人工智能技术创新的促进机制应当符合市场经济效益要求,技术创新鼓励性条款、促进性条款应当着重强调“市场调节为主导,政府干预为辅助”的基本要求,衔接好市场调整机制与政府干预机制在促进人工智能技术创新进程中的功能定位。经济效益原则的内容包括三个方面:一是保护科技创新成果及其知识产权。在科技创新实践中,侵害专利权、不当使用开源代码等常见问题会严重影响市场创新主体的积极性,故而需要在法律基本原则层面明确创新主体对人工智能技术创新成果的知识产权;二是协调不同创新主体的知识产权诉求。在人工智能技术创新过程中,争议最大的技术环节便是训练数据是否能够采用承载著作权的作品。倘若从促进科技创新目的来看,使用受著作权法保护的作品训练人工智能算法模型属于必要的技术环节;但是,现行《著作权法》所规定的“合理使用”情形并没有包括“训练算法模型”。在未来的立法活动中,回避规定这一方面的立法争议实际上也在回避人工智能技术创新存在的现实障碍,无法真正回应“促进科技立法”这一立法目的。尽管《生成式人工智能服务管理暂行办法》第7条第2项规定了“涉及知识产权的,不得侵害他人依法享有的知识产权”,其言外之意便是“使用不侵害他人依法享有知识产权的训练数据是合法的”。但是,在促进科技创新层面,立法内容应当提供更加具体的训练数据使用行为规范指引,例如对生成内容作出具体规范要求,禁止利用训练数据中包含的“作品”生成相似或完全相同的作品等;三是明确政府干预与市场激励两种机制之间的衔接原则,即政府对于人工智能技术创新的干预需要回应研发阶段的投融资引入、技术研发场地供给、合作创新平台提供、科技成果转化等具体的市场实践需求。

基础设施保障原则是指人工智能技术创新的促进机制应当包含人工智能技术创新所必要的创新资源供给。目前,算法、算力和数据成为影响人工智能技术创新的核心三要素,相应的创新资源供给机制也应当围绕这三要素予以建构。在算法层面,市场激励机制不可能实现直接由市场提供基础技术的创新,这种失灵现象则需要在制度层面明确政府促进科技创新的法定职责,既需要鼓励和支持高等院校、科研机构开展基础算法模型的科研攻关,也需要有规划地培养基础算法模型领域的关键人才。在算力层面,人工智能产业正在以“大模型”作为主要的技术创新趋势,而这也意味着科技创新活动需要庞大的算力资源用以支撑海量的数据分析处理任务。然而,算力资源的供给需要消耗大量的电子资源,无法通过简单地频繁修建数据中心等方式进行数量层面的增长。算力这一创新资源供给和保障则需要监管机构在国家层面统一规划和部署算力中心节点的建设,避免因数据中心无序建设而导致算力整体资源受限的情况发生。在数据层面,人工智能产业实现高度智能化的技术水平离不开海量训练数据的投入,在数据财产权理论尚未明朗的背景下,公共数据的供给制度显然应当纳入“人工智能促进法”的立法活动之中。一方面,立法内容应当明确公共数据公平供给的基本原则,确保人工智能产业在相同条件下能够获得必要的训练数据资源;另一方面,立法内容还应当包括公共数据供给的具体方式,例如建构中央和地方的人工智能产业训练数据供给平台等。

结语

人工智能领域正在成为数字经济转型升级的重要领域,推动该领域科技创新需要遵循综合治理、体系治理的基本理念,整合技术标准、市场、法律、政策等多元治理工具,形成生态体系性的科技创新体系。其中,法律对于科技创新的推动作用不能单一划归为“明确科技创新的合法性边界”“促进科技创新成果转化”等结论,而是应当综合性地从风险预防、市场激励以及创新资源保障三个方面建构体系化的科技创新促进机制。风险预防范式所推导出的治理机制主要是为了明确技术创新应用的合法性边界,引导科研活动依循合法合理的基本方向进行技术创新。市场激励范式所推导出的治理机制主要是为了提升创新主体进行技术创新的经济动因,围绕人才、资金、成果等创新要素建构相应的市场激励机制。但是,这两类范式均存在观察视角的局限性,科技创新具有复杂性、系统性的特征,在市场调节失灵、风险预防作用有限的情况下,还需要关注到创新资源的保障,面对特定的技术创新需求,以制度规范保障创新资源的可获得性和可用性。

 

赵精武(1992-),男,河北黄骅人,法学博士,北京航空航天大学法学院副教授、北京科技创新中心研究基地副主任、工信部工业和信息化法治战略与管理重点实验室研究员,主要研究方向:民商法学、网络信息法学、数字法学。

    进入专题: 人工智能法   科技创新   风险预防   市场激励  

本文责编:SuperAdmin
发信站:爱思想(https://www.aisixiang.com)
栏目: 学术 > 法学 > 理论法学
本文链接:https://www.aisixiang.com/data/151583.html
文章来源:本文转自《法学论坛》2024年第3期,转载请注明原始出处,并遵守该处的版权规定。

爱思想(aisixiang.com)网站为公益纯学术网站,旨在推动学术繁荣、塑造社会精神。
凡本网首发及经作者授权但非首发的所有作品,版权归作者本人所有。网络转载请注明作者、出处并保持完整,纸媒转载请经本网或作者本人书面授权。
凡本网注明“来源:XXX(非爱思想网)”的作品,均转载自其它媒体,转载目的在于分享信息、助推思想传播,并不代表本网赞同其观点和对其真实性负责。若作者或版权人不愿被使用,请来函指出,本网即予改正。
Powered by aisixiang.com Copyright © 2023 by aisixiang.com All Rights Reserved 爱思想 京ICP备12007865号-1 京公网安备11010602120014号.
工业和信息化部备案管理系统