人工智能应用程序的大规模兴起深刻改变了人们的日常搜索习惯。与百度、谷歌等传统搜索引擎和抖音、小红书等社交媒体搜索相比,人工智能提供的答案更为便捷和高效。这引发了一个值得关注的问题:人工智能回答是否为完全中立、不具商业属性的客观内容?一方面,人工智能回答是用户问题的深度思考与海量联网信息的整合生成。另一方面,在这高效直观的答案背后,潜藏着被资本渗透和商业诱导的风险。在注意力经济的竞争中,人工智能答案因其可能直接影响用户行为决策,这使其成为商家竞相争夺的“高地”。部分商家渴望在人工智能的搜索答案中隐蔽地贴上“自家标签”,以此引导消费。为了有效应对这种潜在风险、规范人工智能内容生态,需要进行具有前瞻性和实践意义的法律考量。
人工智能中立性面临的风险
目前,在人工智能行业中,不介入商业广告以增强用户吸引力为行业共识,人工智能软件的生成内容也较为中立。但人工智能产品的研发和升级需要大规模的资金投入,未来人工智能开发者是否还能坚守这份共识不能确定。同时,广告行业对生成式引擎优化需求持续增温,这是一种针对生成式人工智能引擎的优化策略,旨在提升内容被人工智能直接引用并整合到生成答案中的概率。商家希望采取这种新的营销方式提高产品在人工智能生成内容中的曝光度,从而潜移默化完成广告宣传。
2025年7月,有媒体对10款主流人工智能健康助手进行测评,测评内容是进行针对性的人工智能问诊,向人工智能问询被公开处罚的药品中哪些药品确实有疗效、哪些药品夸大宣传。某人工智能平台将某药品评价为有科学依据支持疗效的产品,但未提供权威信源支撑。还有一些人工智能平台普遍引用产品官网或广告内容作为分析依据,甚至将广告中的病友案例作为疗效证据,未提及监管处罚信息。
测评结果说明人工智能问诊具有不可避免的局限性,可作适度参考而不能代替真实的医疗问诊。有医疗从业者表示,由于医疗领域专业性强,不同提问方式会导致人工智能生成内容不同,这不仅容易出现误导、影响判断,还可能引发医患矛盾。公众使用时,可将其生成的结果当作参考,切勿过度依赖。例如,《湖南省医疗保障局关于进一步加强基本医疗保障定点零售药店管理的通知》第5条提出:“严禁使用人工智能等自动生成处方”。
人工智能问诊的测评结果反映出人工智能生成内容存在被操控风险。人工智能无法自主辨识信息来源的优劣,这使得其回答的中立性受到影响,答案可能存在被商业宣传信息操控的风险。若消费者在这种人工智能答案的基础上产生了消费行为并引发了法律纠纷,那么人工智能软件的搜索答案可否视为广告?如果消费者权益因此受到了侵害,谁应承担法律责任?
人工智能生成内容商业化引发的法律审视
人工智能生成内容是否构成广告的法律界定。广告法第2条规定:“在中华人民共和国境内,商品经营者或者服务提供者通过一定媒介和形式直接或者间接地介绍自己所推销的商品或者服务的商业广告活动,适用本法。”国家市场监督管理总局制定的《互联网广告管理办法》第2条规定:“在中华人民共和国境内,利用网站、网页、互联网应用程序等互联网媒介,以文字、图片、音频、视频或者其他形式,直接或者间接地推销商品或者服务的商业广告活动,适用广告法和本办法的规定。”判断人工智能生成内容是否属于广告,关键在于考量其是否符合法律中界定商业广告的四要件。第一,主体要件。人工智能生成内容背后若存在商品经营者或服务提供者,则可以将其视为推销商品或服务的营利性组织或个人。第二,目的要件。人工智能生成内容可能构成间接推销商品、服务,引导用户购买或使用特定商品、服务。第三,媒介要件。人工智能对话界面是一种媒介形式,一种依托可传播信息的载体。第四,行为要件。人工智能生成内容是一种潜在的介绍商品、服务行为,可能包含商品性能、效果、优势等描述性信息。
如今人们日常生活越来越依赖人工智能,人们可能直接提供大致需求让人工智能推荐不同种类产品,也可能对某一类产品的品牌推荐发问,还可能需要某一品牌具体产品的综合信息。在这样的情况下,人工智能生成内容可以对消费行为产生很大影响。虽然人工智能开发者对于商业资本介入的态度是拒绝的,但如果人工智能模型训练所引用的内容存在商家刻意植入的信息,那么人工智能答案有可能构成一种隐性广告。换而言之,即便人工智能开发者在主观上并没有想让人工智能生成内容成为隐性广告,但客观上这些生成内容在大模型语料库被干扰的情况下已经具备了商业广告的法律属性。
消费者权益侵害的隐蔽性。相比传统广告,人工智能生成的文本更具中立性外观,但其内容可能被相关利益方干预,从而对用户形成潜移默化的消费引导。在大多数情况下,这种穿着人工智能答案外衣的广告对消费者权益的侵害是在其毫无察觉的前提下发生的,具有隐蔽性的特点。
消费者权益保护法对消费者的基本权利作出了明确规定,“消费者享有知悉其购买、使用的商品或者接受的服务的真实情况的权利”“消费者享有自主选择商品或者服务的权利”“消费者享有公平交易的权利”。人工智能生成内容隐性广告化本质上是对消费者知情权、自主选择权、公平交易权等法定权利构成隐蔽的侵害。在未来,当人工智能生成误导性信息造成损失时,消费者往往难以举证内容是否由商家操控、平台是否故意放任、模型是否存在偏差。为了应对这种未来可能发生的新型消费风险,现有法律规定亟待在消费者权益维护方面进行积极的补充与更新。
法律责任主体确认的复杂性。如果未来人工智能生成内容中出现商业宣传信息,并因此引导消费而引发权利侵害或法律纠纷,如何确认具体的法律责任主体。确认具体的法律责任主体具有复杂性,这主要体现在以下几个方面:第一,人工智能平台与模型开发者的法律边界还未清晰。当前主流的人工智能应用由技术开发者提供大模型支撑,由产品运营方设计用户界面。在法律层面,二者还未形成统一的责任主体。纠纷发生时,消费者很难判断责任应由平台承担,还是由底层模型的提供者承担。第二,语料库“内容污染”的责任难以明确。人工智能模型所训练的语料中可能存在着商家投放的“软文”。这些内容虽然未通过付费合作嵌入语料库,但也成了回答内容生成的依据,这种间接商业植入大部分没有合同依据,从而使得商家责任难以追究。第三,生成式引擎优化的使用没有监管规范。生成式引擎优化作为一种新兴的营销手段,其本质是通过优化语义结构、关键词布局等方式,使商品信息更容易被人工智能程序引用。由于其不完全依赖平台发布、不产生直接广告合同关系,现行法律体系难以将此类行为直接认定为广告投放。这使得部分商家游走于边缘地带,以优化信息名义规避广告的法律责任。
人工智能生成内容的法律规制探索
注明人工智能生成的商业广告标识。广告法第14条规定:“广告应当具有可识别性,能够使消费者辨明其为广告。”法律确立了广告形式的基本标准,立法意图是保障消费者知情权、防止被商业宣传误导。在人工智能迅猛发展的环境中,人工智能应用应自觉强调生成内容中商业信息的可识别度,这意味着生成内容要清晰标注广告标识,在生成的内容结构、推荐排序等方面标注广告。此外,在法律层面还需强制力保障,可以在现行规范中增设针对性条款或出台相关规定。人工智能生成内容中若包含推荐、引导、评价等具有明显商业倾向的信息,则可以视为商业广告,其传播行为也应视为广告宣传,应当遵守法律对广告可识别性的规定。
广告法第59条规定,广告违反本法第14条规定,不具有可识别性的,或者违反本法第19条规定,变相发布医疗、药品、医疗器械、保健食品广告的,由市场监督管理部门责令改正,对广告发布者处十万元以下的罚款。法律威慑力与新型人工智能广告的经济收益相比偏弱,可以适当提高违法成本,对于人工智能平台未进行明显的广告标注、商业宣传操纵人工智能生成内容不进行广告标注等不法行为,可设置更高成本的分级处罚。
推动人工智能生成机制的透明化。人工智能生成内容对消费者权益的隐蔽性侵害,很大程度上是因为其内容生成机制还不够透明公开。依据《互联网信息服务算法推荐管理规定》第12条,“鼓励算法推荐服务提供者综合运用内容去重、打散干预等策略,并优化检索、排序、选择、推送、展示等规则的透明度和可解释性,避免对用户产生不良影响,预防和减少争议纠纷。”模型开发者应主动在技术层面引入商业软文识别系统,对大模型语料库进行内部监管与审核;应推动用户对个别回答进行申诉,主动配合公众对其大模型语料库形成外部监督。人工智能平台应提供公开的答案生成思路、清晰的内容生成逻辑等,让用户有权知道答案是怎么来的;应设立内容生成标注机制,对含有商业宣传的回答自动生成标注提示,以此增强人工智能回答的中立性与商业宣传可信度。
法律规制不能只追求简单的算法公开,而应构建一种可问责的透明度,使得这些公开内容可以有效地作为处理法律纠纷的事实依据,如可以要求人工智能系统公开商业合作方信息列表等。地方监督管理部门可以协助主流人工智能平台生成内容,定期发布商业化相关评分,从而形成更高效的社会监督体系。要求主流人工智能系统涉及商业性内容,必须依法备案、事先申报,并接受内容审核,确保商业性内容不以所谓人工智能专业建议形式误导消费者。这种做法有助于推动算法黑箱的解锁,将信息处理的权利重新交还给消费者和用户。
明确多方法律责任归属。第一,推动人工智能服务提供方明确法律责任归属。这要求由平台方与模型提供商签署责任归属协议,二者需要明确语料内容审核、商业信息过滤、广告信息标注、生成机制透明化等责任分配。当人工智能生成内容引发消费纠纷时,监管机关可依据备案材料判定责任归属,提升执法效率。第二,鼓励大模型语料库进行商业信息风险监测。建议模型开发方引入第三方机构对语料库进行商业风险监测。如果语料库中信息与商品、品牌存在高度关联,第三方机构应及时进行商业风险的评估,提醒、督促模型开发方与商家签署法定合同,并向有关部门及时备案。第三,要求生成式引擎优化纳入监管机制。人工智能服务提供方可建立生成式引擎优化使用监管机制,对生成式引擎优化的使用进行控制,防止人工智能生成内容中商业化信息占据主导。商家以优化人工智能内容生成为目标的商业行为应向人工智能服务提供方申请,人工智能服务方依据申请内容考量是否进行合作,以法定合同界定其广告主身份,提前明确各方的法律责任。
人工智能生成内容应是中立回答而不应是算法广告,现有法律在界定广告属性、明确责任主体及监管手法上还有待完善,需要通过前瞻性的法律考量有效预防消费风险,通过建立算法透明、广告可识别、权责清晰的法律规制,防范商业资本动摇人工智能的中立身份,确保人工智能真正服务用户和消费者需求。
〔本文系陕西省社会科学基金项目“数智赋能陕西法治宣传的创新机制与实现路径研究”(2024M010)的阶段性成果。〕
来源:《民主与法制》周刊2025年第40期