关键词:生成式人工智能;侵权责任;动态体系;归责原则;注意义务
一、问题的提出
2025年10月,中国共产党第二十届中央委员会第四次全体会议通过《中共中央关于制定国民经济和社会发展第十五个五年规划的建议》,明确提出“加强人工智能治理,完善相关法律法规、政策制度、应用规范、伦理准则。”这对生成式人工智能侵权问题研究提出了更高要求。生成式人工智能在信息输出过程中可能引发人格权、知识产权等相关直接私益损害及公共秩序、社会舆论等公益损害。同时,因用户高度信任生成式人工智能输出的医疗、法律等专业内容,还可能造成次生损害。生成式人工智能侵权与传统侵权相比具有其独特性:首先,技术风险不可避免。生成式人工智能依赖大模型训练与算法迭代,即使经过合规数据训练,仍可能因“算法幻觉”生成错误信息,或因用户诱导性输入产生侵权内容,导致认知风险,难以完全消除。其次,侵权存在行为自由。服务提供者在模型设计、训练数据选择、算法参数调整等环节均有自由决定空间,并非安全被动承受技术风险,其选择直接影响侵权发生概率。最后,侵害不同法益影响具有差异。不同领域的生成式人工智能对法益的侵害程度差异显著,如医疗类人工智能错误诊断可能致人格权侵权,娱乐类人工智能可能仅涉轻微侵害知识产权。
因此,传统侵权归责理论在认定生成式人工智能服务提供者侵权问题上存在明显短板:使服务提供者承担严格的产品责任不利于人工智能的发展;使服务提供者承担一般过错责任不利于受算法黑箱侵害用户的保护;使服务提供者承担网络侵权责任因忽略价值链条上的多维主体而有违公平。因此,有观点认为人工智能侵权可在适用严格产品责任的基础上,限缩其权益保护范围以柔化其适用,并构成新型的归责类型,关于生成式人工智能侵权的归责原则与侵权责任类型争议可见一斑。除归责原则的争议外,主流观点认为,在人工智能侵权问题上应跳出传统主观过错、因果关系的判断,转向以注意义务设置为核心的判断规则,但在注意义务的内容设置上难以达成共识。综上所述,当下学界争议主要集中在人工智能侵权的归责原则、注意义务、免责事由等方面,但争议因“固定要件规范”而难以调和。
动态体系论可为上述争议内容提供共识的方法论基础。动态体系论否定传统法律规范“全有或全无”的固定要件模式,主张从法律关系中提取核心评价要素(如侵权法中的过错、危险等要素),通过个案中要素“强度”(如危险程度高低)进行综合判断,并以此确定法律效果,实现“或大或小”的弹性定责。特别是在归责方面,动态体系论可将传统无过错责任的归责要素“危险”与过错责任的归责要素“过错”合二为一,并通过注意义务设置的细密程度不同而确定强弱不同的责任。故本文尝试以动态体系论作为理论框架,并期通过以弹性设计注意义务内容为核心,弥合归责原则的分歧。
二、生成式人工智能侵权归责原则之争与服务提供者安全保障责任的证成
(一)生成式人工智能侵权归责原则之争
学界多数观点认为生成式人工智能致害时,服务提供者应承担过错责任。其理由在于:第一,提供生成式人工智能服务不是高风险活动,适用无过错责任可能导致对服务提供者自由无必要的过度限制。第二,使其承担过错责任有利于促进人工智能的发展。第三,由于生成式人工智能服务需要用户输入信息引导输出结果,使服务提供者承担过错责任有利于敦促用户承担合理注意义务,避免用户故意输入引导输出结果侵权。第四,生成式人工智能的算法黑箱性质并不一定需要承担无过错责任才能达到保护受害人的目的,适用“通知—删除规则”等仍可以有效避免侵权的发生。第五,生成式人工智能服务提供方式更符合服务提供方式而非产品销售方式,更符合内容服务提供者的定位,不宜以产品责任的无过错责任进行类比。第六,无过错责任建立在行为人对危险行为的预见和控制力基础上,且允许其通过保险形式分散风险,而生成式人工智能服务提供者并不能预见和控制侵权风险。第七,《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)第9条规定了信息内容生产者的责任,人工智能生成内容的前提是用户输入信息请求,因此该条是侧重强调提供者应当承担何种类型的法律责任,而非对侵权责任归责原则的规定。
另有观点认为,人工智能侵权应承担无过错(危险)责任。其理由在于:第一,作为算法黑箱,人工智能服务提供者更了解人工智能产品,使服务提供者承担无过错责任也可使受害人降低信息成本;第二,在法经济学理论看来,使人工智能服务提供者承担产品责任等无过错责任,控制侵权发生的成本较低;第三,生成式人工智能致害本身具有产品责任的特征;第四,《暂行办法》第9条参照产品生产者责任,对服务提供者采取无过错责任原则;第五,比较法上存在生成式人工智能服务提供者承担产品责任的案例例证。
还有观点认为,应当以生成式人工智能类型为基础,对不同类型生成式人工智能服务提供者施以不同的归责原则。详言之,对于具有高度可解释性的“白箱”人工智能侵权,因其过错和违反注意义务易于发现,应使其承担过错责任;对于算法并不完全透明的“灰箱”人工智能,因其可解释性和可追溯性,应使其承担过错推定责任;对于难以解释和透明不足的“黑箱”人工智能,因其过错、侵权因果关系、责任形态都难以判断,应使其承担无过错责任。
(二)生成式人工智能侵权归责路径的选择
第一种观点认为,生成式人工智能侵权应当承担产品责任(无过错责任)。此观点有较多比较法案例例证,如在美国联邦第二巡回法院Saloomey v. Jeppesen & Co.案中,法院认为航空图表的价值系基于测绘的物理特性而非人的思想,且大量规模化生产和销售,具有标准化产品的性质,其应当承担产品责任;在美国联邦第九巡回法院Lemmon v. Snap, Inc.案中,法院认为营利平台算法缺陷为产品设计缺陷,平台应承担产品责任;在欧盟法院(CURIA) UsedSoft GmbH v. Oracle International Corp.案中,法院认为网上下载软件与购买有实体载体的软件性质一致,因此软件设计者都应承担产品责任;在美国加利福尼亚州北区联邦地区法院Simulados Software, Ltd. v. Photon Infotech Private, Ltd.案中,法院认为能被大规模普遍化使用的软件本就是产品,应当承担产品责任。由此可见,域外法院通过规模化、营利性、复杂性三个要素,认定软件、信息载体或人工智能算法侵权是否应当承担产品责任,使价值判断的天平更多地偏向受害人保护而非行为人自由。但是,使生成式人工智能服务提供者承担产品责任不一定意味着对受害人保护的增加。首先,产品责任的承担虽然无须考虑行为人过错,但仍需考虑损害的发生系由产品设计、制造、警示等缺陷造成。生成式人工智能与其他有形产品或软件等不同,其缺陷本身难以发现和证明,并且生成式人工智能服务作为新兴科技密集型产业,其提供者很容易适用《中华人民共和国产品质量法》第41条第2款第3项的规定,以当时科学技术不能发现缺陷为由而免责。其次,在产品责任中,受害人不参与损害发生的因果关系,而生成式人工智能侵权中,受害人可能本身就参与用户信息输入并导致侵权的发生,产品责任模式可能以通过降低用户注意义务的方式造成更多侵权。
第二种观点认为,生成式人工智能侵权应承担过错责任。此观点注意到了生成式人工智能侵权的低风险性质及用户与人工智能互动的性质。然而,若使生成式人工智能服务提供者承担过错责任,在面对算法黑箱时,受害人将难以证明其存在过错;在面对高侵权风险生成式人工智能时,过错归责不能像无过错归责一样,迫使服务提供者为预防侵权责任的承担,事前就采取必要防范措施,保护潜在可能的受害人。事实上,保障受害人并非一定需要通过适用产品责任的无过错归责原则来实现。通过细密严格的注意义务规范设计,使不作为的过错客观化,同样可以实现对生成式人工智能服务提供者的限制和对受害人的保护。例如,《暂行办法》《关于加强互联网信息服务算法综合治理的指导意见》对“算法透明”的要求,即可视为将算法披露义务和算法解释义务纳入安全保障义务范畴,企业应当优化算法、提高算法透明度以更好地接受公众监督。若生成式人工智能服务提供者不能详细解释说明其算法规则与生成原理的合规性,则其没有为避免侵权发生尽了作为义务,应当承担侵权责任。相对而言,保障人工智能服务提供者的行为自由与行业发展,也并非一定要以一般过错归责来实现。具言之,若生成式人工智能服务提供者违反安保注意义务,即可认为其具有过错,需对人工智能生成内容损害的结果承担过错责任。需强调的是,此处的过错责任与一般过错责任不同,因其针对的是可预见但未加防范的社会交往风险行为,且是针对生成式人工智能服务提供者的不作为,故其对生成式人工智能服务提供者注意程度要求要远高于一般过错责任。此外,其仅对违反安全保障义务的客观化行为进行判断,事实上并不判断生成式人工智能服务提供者的主观状态,因此是介于过错归责与无过错归责之间的第三种归责状态。
第三种观点试图通过类型化方式对前两种观点进行折中,既根据算法透明度区分不同生成式人工智能服务侵权的归责原则,也注重证明责任分配在服务提供者行为自由与受害人保护之间的平衡。但第三种观点的问题在于,究竟应以什么样的标准区分,又应将生成式人工智能服务区分细化到何种程度更为适宜,并不明确。是否需要如欧盟《人工智能法案》(AI Act)一样,将宽泛的人工智能服务提供者区分为分销商、产品制造者等多个不同主体,或者仅区分高风险人工智能服务与低风险人工智能服务,抑或沿用传统的“技术支持者—服务提供者—内容生产者”的主体区分方式确定不同的归责原则,尚未可知。特别是无论如何类型化区分,在教义学构建和立法上都可能有过度具体化与过度抽象化的风险。
上述观点的核心分歧在于,第一种观点以服务提供者主观过错为核心,认为服务提供者应与其他网络信息服务提供者一样承担过错责任;第二种观点将生成式人工智能服务提供者作为人工智能产品生产者,注重提供者因自己利益对危险的开启和控制;第三种观点本质上依旧是依据“奥地利法学家威尔伯格提出的......动态系统论”对人工智能侵权归责进行弹性设计。因此,直接通过动态体系理论以弹性方式构建生成式人工智能侵权归责体系,同时保障生成式人工智能侵权规则的安定性和开放性成为更好的选择。
1.基于网络空间中安全保障义务的动态责任。在侵权法上,从主观过错出发考量的过错责任与从危险防范角度考量的无过错责任并非泾渭分明、不可调和,侵权归责的本身就包含了过错与危险两个要素。这一判断突出体现在安全保障义务上,其明显包含过错和危险两种归责要素。在包含危险归责要素方面,安全保障义务的本质是对社会交往中开启危险的防免义务,开启、控制社会交往危险的人应以合理措施降低危险发生的可能,否则构成侵权。安全保障义务防范的是社会交往中的一般危险,若危险程度增加成高度危险,则滑入无过错责任的调整范畴。其在综合考虑行为人注意义务违反、利益获取、受害人合理信赖与自我保护能力、风险源开启与控制等要素的前提下,将社会交往场所中的风险在行为人与受害人之间进行分配,将行为人的不作为也纳入法律的负面评价中。在包含过错归责要素方面,安全保障义务履行与否,本身就是判定不作为是否存在过错(违法性)的标准。若义务人负有安全保障义务而未作为,则可直接认定安全保障义务人存在过错。我国实证法上未明确规定安全保障义务人侵权责任应适用的归责原则,故解释上自然应适用过错归责原则。更有激进的立法论观点认为,应将安全保障义务纳入过错侵权的一般规定,使违反安全保障义务侵权规定作为一般过错侵权规定的附属性规定,足见安全保障义务与过错归责的紧密关系。由此,违反安全保障义务的侵权,既不是完全不考虑行为人过错的无过错责任,也不是将行为人主观过错作为核心的过错责任,而是居于两者之间。
然而,与适用无过错归责原则的无过错责任不同,安全保障义务只针对一般风险致害,而无过错责任针对危险程度非常高的情形。与适用过错规则的一般过错责任不同,一般过错责任主要针对作为侵权以及存在相当因果关系的直接侵权,依赖对主观过错的评价、对因果关系事实的判断;而安全保障义务主要针对不作为侵权以及因果关系相当性不足的间接侵权,不作为是否构成侵权、间接侵权与损害后果之间是否具备相当因果关系,均依赖法律对该不作为行为的价值判断。换言之,一般过错责任讲求过错的主观考量,因果关系的事实考量;违反安全保障义务的侵权责任讲求过错的客观化(规范上注意义务的违反)考量,因果关系的法律考量。由此可见,违反安全保障义务侵权的核心是以法律对行为的客观化评价替代主观过错和事实归因。
构成违反安全保障义务侵权的前提是行为对法定注意义务的违反。换言之,需考察行为人是否对可预见风险在客观上履行了注意义务,只要行为人对注意义务有所违反,即应承担违反安全保障义务的侵权责任。因此,注意义务如何设置极为重要。注意义务的要求越严格,违反安全保障义务的侵权责任就越接近无过错责任;注意义务的要求越低,违反安全保障义务的侵权责任就越接近于一般过错责任。由此,通过注意义务的不同构造,违反安全保障义务的侵权责任可联通过错侵权与无过错侵权,弥合二元对立的归责体系,使得过错责任与无过错责任具有某种程度的流动性,也使得侵权归责原则成为连接过失责任与无过错责任的有机整体。违反安全保障义务侵权将注意义务等要素作为侵权责任承担的“调节器”,通过为行为人设定注意义务等要素的多少与强弱,确定义务违反的可能性大小,动态弹性地平衡行为人自由与受害人保护。
就实定法而言,虽然《中华人民共和国民法典》(以下简称《民法典》)第1198条规定安全保障义务的主要适用领域为经营场所和公共场所,但普遍认为,安全保障义务应扩张至网络空间。质言之,网络空间本身是面向不特定多数人的公共活动空间,具备公共场所属性,且安全保障义务并无空间介质要求,网络服务提供者就可以成为负担安全保障义务的主体,这符合侵权法上危险开启控制理论与风险收益相一致原则。此外,我国现行法对于网络服务提供者侵权的规定,系参照美国法“避风港规则”和“红旗规则”的产物,重事后止损义务而非事前保障义务,“实际上是免除了网络运营者保障网络平台安全的义务,是一种本末倒置的处理方式”。作为生成式人工智能服务提供者,其收集、加工网络数据并向不特定公众输出的行为,实质上就是一种通过该服务引入侵权风险并以此获利的方式。另外,生成式人工智能服务提供者对这些现实风险也具有控制力,其既对模型参数与内容输出具有主观控制能力,又对生成过程具有技术识别能力,还有能力干预风险发生。因此,其当然与其他网络服务提供者一样,有对网络空间可能造成的侵权风险采取合理的防范措施,保护他人免受损害的安全保障义务。
2.人工智能服务提供者负安全保障责任的正当性。其一,违反安全保障义务侵权责任与生成式人工智能侵权在侵权行为上的契合。生成式人工智能是以用户输入信息并得到结果反馈的方式进行的服务。因此,生成式人工智能侵权的产生,必须由用户指令信息引导出结果。由此,不可将生成式人工智能侵权责任类比为网络服务提供者责任或产品责任。根据我国《民法典》第1194条至第1197条的规定,网络服务提供者责任是其自身利用网络直接实施侵权行为的直接责任和未履行法定义务的间接责任。同时根据我国《民法典》第1202条的规定,产品责任是以产品缺陷为归责基础的严格责任。而生成式人工智能侵权,本质是第三人(生成式人工智能服务用户)介入安全保障义务人(生成式人工智能服务提供者)管理风险领域并实施侵权行为,生成式人工智能服务提供者作为安全保障义务人,因违反安全保障注意义务而承担侵权责任。
其二,违反安全保障义务侵权责任与生成式人工智能侵权在侵权因果关系上的契合。就侵权因果关系而言,由于用户所实施的故意或过失侵权行为与生成式人工智能服务提供者所管领的风险是一种常态性的结合,即生成式人工智能服务提供者本就应防范用户输入信息引导侵权结果发生的风险,因此生成式人工智能服务提供者与受害人之间的因果关系链条并不因用户的故意或过失侵权行为而被切断。此时,虽然用户是直接推动侵权损害发生的主体,但生成式人工智能服务提供者也可以通过积极履行注意义务阻止损害的发生。若因未积极行为而导致损害的最终发生,则是用户作为与生成式人工智能服务提供者不作为结合导致了损害的发生。
其三,生成式人工智能基于安全保障义务设置侵权构成的比较法例证。在比较法上,前述欧盟《人工智能法案》(AI Act)、美国《人工智能风险管理框架》(AI Risk Management Frame work)、新加坡《模范人工智能治理框架》(Model AI Governance Framework)均以人工智能安全风险防范作为人工智能治理的核心。此外,欧盟《人工智能和其他新兴数字技术的责任》报告根据人工智能技术是否容易造成重大损害,以具备弹性的标准区分了高风险人工智能与低风险人工智能。在美国特拉华联邦地区法院Getty Images (US), Inc. v. Stability AI, Inc.案、美国加利福尼亚州北区联邦地区法院Andersen v. Stability AI Ltd.案中,原告指控Stability AI的核心也在于,在未获授权情况下抓取受版权保护的图像,是否对原告权益造成了极大交往安全风险。
司法实践中,“广州奥某曼”案与“杭州奥某曼”案已对生成式人工智能服务提供者的侵权责任承担作出了司法探索:在判断要素方面,广州互联网法院以侵权关键词过滤机制、用户投诉警示机制、生成内容标识机制作为生成式人工智能侵权的判断要素;而杭州互联网法院以损害防范成本与营利收益的比例、服务的性质(是否参与开源算法修改)、生成侵权内容的明显程度和扩散后果等作为判断要素,判令生成式人工智能服务提供者承担侵权责任。引入动态体系论的基础评价概念后,需要考虑某一法律命题在仅考虑一个要素的时候,满足程度达到一个特定数值时的一般性法效果。因此在基础评价方面,两个判例的共同点在于,以保护生成式人工智能发展为理由,对数据输入和数据训练采用宽松的注意义务判断标准。但以上司法判断要素和基础评价只能作为个案参照,并不能完全涵盖生成式人工智能服务提供者侵权的各种类型,也不能提供判断生成式人工智能服务提供者侵权责任的理论框架。
在立法上,《最高人民法院关于审理侵害信息网络传播权民事纠纷案件适用法律若干问题的规定》(以下简称《侵害网络传播权纠纷规定》)第9条、《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》(以下简称《网络侵权若干规定》)第6条均以动态弹性方式规定网络服务提供者过错的判断要素和评价基准,相较于“固定要件—法律后果”(If-Then)的模式,赋予了法官更大的自由裁量权。但是,这些规定混淆了动态体系中的要素和评价基准,将“侵权的明显程度”等评价基准的内容作为评价要素规定在内。此外,《暂行办法》等虽然对生成式人工智能服务的输入数据训练、平台算法设计、输出数据规制方面作出了规定,但其性质上仅是针对服务提供者的行政监管规定,并不涉及侵权责任承担。
综上所述,安全保障义务之所以能成为动态体系论的适配载体,核心在于其注意义务履行标准的弹性特征。一方面,安全保障义务兼具过错与危险双重要素,与动态体系论多元要素协动的要求高度契合;另一方面,注意义务的强度可灵活调整,通过提高或降低义务内容,可实现过错责任与无过错责任的衔接:注意义务的要求越高,就越接近无过错责任;注意义务的要求越低,就越接近于一般过错责任。
三、人工智能服务提供者安全保障义务的来源与内容
按照前文思路,以安全保障义务理论模型构建生成式人工智能侵权框架,是将生成式人工智能服务提供者的侵权责任边界扩展至更积极的义务设定,因此,衡量服务提供者是否构成侵权,应重点关注其是否通过技术手段等尽到了防止侵权发生的合理义务。
然而,哪些是生成式人工智能服务提供者必须履行的注意义务尚不明确。虽然《暂行办法》等对生成式人工智能服务有大量安全保障义务规范,但这些规范并非均为私法上安全保障义务人注意义务的内容,究竟应以何种标准筛选这些公法上的安全保障义务规范转介接入侵权责任认定中,又应筛选哪些公法上的规范作为生成式人工智能服务者的注意义务内容?应在个案中如何对这些注意义务进行评价,才能使服务提供者所产生的侵权风险与其风险控制力、风险收益等相适应?以下详述之。
(一)人工智能服务提供者注意义务的来源
1.保护性规范。安全保障注意义务可能来源于先行行为、法律规定、合同约定,对生成式人工智能而言,其安全保障注意义务主要来源于法律规定和合同约定。当前,《暂行办法》对服务提供者的义务作出了初步规定,尽管未直接涵盖侵权责任内容,但为确定服务者在侵权中的过错判断提供了可能的参照规范。在比较法领域,欧盟《人工智能法案》(AI Act)、美国《人工智能权利法案》(AI Bill of Rights)均对人工智能作出了规制性规范,且通过对此类规范保护性目的的解释,使其可作为认定侵权责任的标准。就我国而言,《民法典》《暂行办法》《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)、《中华人民共和国网络安全法》《中华人民共和国数据安全法》《信息网络传播权保护条例》《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)等法律法规从不同维度对生成式人工智能服务提供者进行了规范,如在“广州奥某曼”案中,法官也将生成式人工智能服务提供者违反公法义务视为侵权责任过错评价标准之一。
并非所有规定都可直接作为判断侵权过错的依据。需具体区分:一类是明确旨在保护特定主体法益并具有具体行为要求的规范,如关于数据合法来源、内容生成标识、违法内容的处置机制等。若生成式人工智能服务提供者违反了此类保护性规范,则可推定服务提供者存在过错。另一类是有具体性行为要求,但非旨在保护个体法益的。例如,《暂行办法》第17条、《算法推荐管理规定》第24条规定的算法备案义务,《暂行办法》第14条及第19条第1款分别规定的向主管部门报告义务和配合主管部门监督检查义务,这类规范强调服务者对行政机关的信息披露与协作责任,属典型的公法义务,其内容虽具有行为具体性,但与个体权利保护无直接关联,其规范的目的不在于保护具体个体权利,因而不具“保护性规范”的法律属性,不能直接作为私法侵权责任的基础。因此,在法律适用过程中,识别具有“保护个人法益”目的的规范,并将其转化为服务提供者注意义务的基础,成为司法认定的重要路径。
应当注意的是,此处具有“保护个人法益”目的之规范不仅是指保护第三人免受人工智能侵害的规范,还包括保护人工智能服务用户的规范。虽然生成式人工智能服务提供者的注意义务类型为安全保障义务,但违反安全保障义务造成他人损害并非意味着一定有第三人作为加害人介入,更多的情况是安全保障义务人未能在自己管领空间内尽到注意义务导致他人损害,因此针对用户本身的保护性规范亦在其中。针对用户本身的保护性规范主要是算法透明、信息披露相关规范,如美国《算法问责法案》(Algorithmic Accountability Act of 2022)、欧盟《人工智能法案》(AI Act)等均作出了信息披露、算法透明的规定。我国《暂行办法》第10条及第11条第1款,也对服务提供者设定了公开服务适用范围、提示使用风险、限制处理使用者输入内容等义务。这些规范的主要功能在于指引用户合理、理性地使用生成式人工智能技术,并防止特定群体(如未成年人)对该类技术产生依赖。
2.合同约定。我国《暂行办法》第9条第2款明确规定人工智能服务提供者应当与使用者签订协议,以约定形式明确双方权利义务与责任。而《生成式人工智能服务安全基本要求》(以下简称《基本要求》)第5.2条规定,服务协议中应告知使用者知识产权风险。该类规范通过制度设计引导生成式人工智能服务提供者以合同方式设定其注意义务。相比基于法律规定的注意义务,基于合同约定的注意义务更具弹性与差异化适配能力,更能适配不同阶段、不同种类生成式人工智能服务的风险差异。此外,基于合同约定的注意义务有利于使风险在用户和生成式人工智能服务提供者之间划分,也可以引导用户自己注意合理使用。但并非所有合同义务都可以成为侵权注意义务的来源,仅当合同义务内容涉及保护义务,即服务提供者不履行该义务会侵害用户固有利益时,该合同内容方可作为侵权注意义务的来源。如服务提供者违反合同约定生成错误信息,导致用户权益受损,则该合同上的违约行为亦构成侵权上注意义务的违反。
服务提供者与用户可能通过合同方式不当地限缩或扩大其注意义务范围。通过合同不当扩张注意义务方面,服务提供者与用户订立的服务合同可能完全不涉及数据采集、处理等内容,但只要服务提供者信息采集、处理符合规范内容,亦不构成合同义务的违反。例如,在某钢铁有限公司诉某电子商务股份有限公司侵权责任纠纷案中,虽然电子商务股份有限公司确实未经钢铁有限公司同意而擅自采集、加工了钢铁有限公司的数据,但法院亦认为“某钢铁公司与某电子公司签订合作协议的目的是购买某电子公司的相关服务,而非授权某电子公司采集、加工、使用出厂价格,故案涉合同关系并非某电子公司采集出厂价格具备合法性的必要条件”,“数据处理者依法采集企业数据,经符合有关标准的编制方法加工形成数据产品并合理利用,未对企业权益造成损害”,判定电子商务股份有限公司不因违反合同义务而承担责任。通过合同不当扩张注意义务方面,人工智能服务提供者不得在合同中约定其超出必要范围采集、处理用户信息的权利。若合同约定内容使服务提供者权利超出相关规范性文件规定的范围,则即使其采集、处理用户信息在合同约定范围内,仍应构成义务违反;与此相对的是,“如果信息处理的缺位将使合同约定的基本功能服务或者用户自主选择的附加功能服务无法实现的,可以认定为订立、履行合同所必需”,可以认可其约定内容对规范性文件注意义务的限缩。
(二)人工智能服务提供者注意义务的内容
根据《暂行办法》以及《基本要求》的规定,服务提供者在数据收集、数据处理、内容标识、算法训练、内容生成、信息披露等全过程中,应当履行一系列注意义务,具体包括以下内容。
1.针对数据来源的注意义务。第一,语料来源安全义务。服务提供者负有对语料来源进行合规审查的义务。因此,其应按照《基本要求》第5.1条要求提前审查语料来源是否含有违法或不良信息、是否属于涉政、涉恐、涉黄等依法应阻断的信息、是否来源明确具备可追溯性。除此之外,还应注意语料来源是否含有可能侵害他人知识产权或人格权的信息。但从我国司法实践来看,在认定服务提供者违反语料来源安全义务后承担侵权责任的问题上,法院多倾向于认为人工智能训练或语料来源侵害他人私权利不应受到过度限制,服务提供者仅需在输出侵权信息时采取必要防止措施即可免于承担侵权责任。因此,对后一种信息的审查仅尽到一般注意程度即可。
第二,信息加工安全义务。其包括语料标注的安全义务、词库设定的合规义务、信息隐匿与数据匿名化处理义务。首先,对于生成式人工智能而言,前期的信息标注质量对模型输出安全性具有直接影响,因此需要依赖大量高质量人工标注数据。依据《基本要求》第5.3条的规定,服务提供者有对数据语料合理标注的义务。特别是对语料的安全性标注,其侧重识别违法有害内容,要求对每一条数据至少由一名审核人员进行审查,并实现与普通数据的隔离存储。其次,对于词库设定合规义务而言,《基本要求》要求服务提供者建立针对禁止生成内容的关键词库、测试题库、拒答题库,体现服务者对模型侵权行为的预测与控制能力。最后,对于信息隐匿与数据匿名化处理而言,虽然《个人信息保护法》第73条中将“无法识别”和“不能复原”作为匿名化的双重标准,但实践中,由于技术追溯能力日益增强,匿名信息因技术进步仍存在被还原识别的风险,因此该义务的达成仅需考虑在信息匿名处理时尽到合理技术手段即可。
2.针对算法过程的注意义务。生成式人工智能服务提供者的注意义务不仅体现在数据处理阶段,还应贯穿算法设计、运行、优化与解释的全过程。根据《暂行办法》及《基本要求》的规定,该类义务主要包括安全伦理、公平、准确、披露与解释五个方面。
第一,算法安全伦理注意义务。由于算法与语料相互依存、动态演化,需建立常态化安全审查机制。生成式人工智能服务提供者应在算法设计与生成规则中融入算法安全与伦理审查,设立敏捷互动、激励向善发展的动态监管机制,防止输出违反法律、公序良俗的内容。第二,算法公平注意义务。建立算法中立性量化纠正机制,确保设计算法技术中立,避免在数据训练和挖掘中出现算法歧视。不因算法偏颇导致种族、性别或其他歧视,阻断违伦悖俗等信息的生成。第三,算法准确注意义务。生成式人工智能产生的“幻觉”(Hallucination)信息可能导致商誉侵权损害或用户错误侵权决策损害,虽然技术无法完全杜绝错误信息输出,但仍应采取行业通行的防范措施。例如,《基本要求》要求抽取不少于1000条测试题进行人工、关键词、分类模型抽检,合格率不低于90%。第四,算法披露注意义务。算法透明虽受技术与商业秘密保护限制,仍应尽量透明,以确保算法决策的可问责性。在侵权责任承担问题上,生成式人工智能服务提供者为履行自身注意义务,无须公开算法源代码等核心内容,只需对算法的运行原理、生成逻辑、局限性与风险等进行披露,即可视为已履行注意义务。第五,算法解释注意义务。《暂行办法》第19条、《基本要求》第7条均要求对算法机制进行必要解释。算法披露义务与算法解释义务共同构成了与服务提供者相关的沟通机制或客服机制。但现有技术力的迅速跃升使得传统理论解释算法机理已无可能,因此算法解释与算法披露不同,其并非对最基础的算法实施进行说明,而是对算法的决策规则、决策权重、算法运行流程等多个维度进行详尽的解释。此处的算法解释并非技术上的解释,而是法律上注意义务履行的解释。算法解释注意义务是针对不同场景、不同层次的注意义务,且解释义务延伸至事后的监督审查阶段。
3.针对信息输出的注意义务。生成式人工智能服务提供者所承担的信息输出环节的注意义务,已不再是简单的“结果不背责”,而是向着主动识别风险、持续监管输出内容、履行结果说明义务等方向扩展。该义务类型主要体现在用户行为管理、输出内容控制、信息标识披露与伦理审查等方面。应当注意的是,《暂行办法》第14条等在信息输出环节的义务规定,与“避风港规则”无关,而是作为判断服务提供者本身注意义务是否履行的要素。
第一,用户识别注意义务。这主要是针对高危用户的识别与行为控制义务。依据《基本要求》第7条、《算法推荐管理规定》第10条等的规定,服务提供者应当对用户使用行为进行持续监测,尤其是对具有诱导性、攻击性输入内容反复出现的用户,系统应重点识别、自动标定其为“高危用户”,并根据风险等级采取如暂停服务、限制功能直至封禁账号等渐进式响应干预措施。但此处的干预识别注意义务仅限于针对用户侵权行为的阻断,并不包括对用户侵权活动进行事实收集的一般性义务。
第二,结果识别注意义务。用户识别注意义务针对的是用户信息输入,即识别用户在使用生成式人工智能时是否有故意引导输出结果侵权的行为,而结果识别注意义务针对的是信息输出,即是否有错误信息、违法悖俗信息在结果端产出。根据《暂行办法》第14条、第15条,《基本要求》第7条的规定,生成式人工智能服务提供者应建立投诉举报机制,以使侵权信息可及时反馈,并在发现违法悖俗内容时及时采取阻断措施。因此,结果识别的注意义务主要表现在两个方面,其一,识别生成结果的义务。提供者应使用关键词屏蔽、算法屏蔽等符合当时技术水平的方式,对生成结果进行自动识别,同时应设置与服务规模相适应的识别人员对生成结果进行识别。项其二,在收到受害人或其他第三人通知存在侵权生成结果后的阻断义务。在“广州奥某曼”案和“杭州奥某曼”案中,法院认为因服务提供者没有建立投诉举报机制,或在接到通知后仍没有采取必要措施阻断侵权信息生成,存在注意义务的违反。在我国实践中,用户与生成式人工智能服务提供者的合同也有相应条款,如《文心一言用户协议》第9.1条就载明服务提供者有根据通知“停止生成、停止传输、消除等合理处置措施”的义务。所谓侵权信息阻断,是指通过技术手段保持人工智能未来不再生成侵权信息。换言之,生成式人工智能服务提供者应尽最大技术努力,阻止同种侵权的重复发生。因为履行此种阻止侵权结果重复出现的注意义务有利于节约诉讼成本,目前主流平台已普遍采用算法过滤等技术阻止重复侵权。
第三,对明显悖俗违法信息的兜底查验义务。虽然在数据输入阶段、算法训练阶段生成式人工智能服务提供者已在不同程度上对违法悖俗信息进行了筛查和屏蔽,但在信息综合输出时仍可能出现违法悖俗信息,如用户故意引导生成式人工智能通过谐音、同音字等内容输出违法悖俗内容。此时,就仍应要求服务提供者根据当时的技术和法规对明显违法或悖俗的输出信息进行结果兜底审查。
第四,信息标识披露义务。由于现阶段生成式人工智能输出可能的错误信息难以避免,因此在立法与实践上均要求生成式人工智能服务提供者负有标识说明义务。《暂行办法》第12条,《互联网信息服务深度合成管理规定》第16条、第17条,《基本要求》附录A,《人工智能生成合成内容标识办法》均规定,服务提供者应当依托数字水印、元数据嵌入等技术手段,构建与风险等级相匹配的标识规则体系,以实现人工智能生成内容的可识别性、可追溯性与可监管性。该标识规则应当体现差异化与层级化原则:应区分强制标识、自愿标识、显著位置与一般标识。此外,对于生成过程中涉及的人机协作方式、语料来源、各方贡献比例等信息,也应当在非显著位置如元数据、文档信息中予以嵌入式披露。
除以上实定法的规定外,信息输出端的标识说明义务在学理上应区分为对一般信息的来源披露义务、对特殊信息的风险提示义务、对伪造信息的标识说明义务。但无论何种披露、提示、标识、说明义务,都需符合显著性要求,在终端以字体加大加粗、水印等方式显现出来。
首先,生成式人工智能输出一般信息时,应标注出信息来源出处。如此既保障知识产权人的合法权益,又提示用户信息可能并非足够专业、准确和及时。《基本要求》亦规定,生成式人工智能服务提供者应告知用户相关侵权风险。但该义务并非要求服务提供者逐一详尽列举生成信息来源,只需帮助用户判断生成专业度、准确度、及时性的缺陷即可。来源提示义务是服务提供者的重要注意义务,是在其能力范围内避免对他人权益造成损害的低成本手段。
其次,生成式人工智能输出特殊信息时,应针对特殊信息进行风险提示。此类特殊信息包括高风险导致用户损害的专业性信息与高风险导致第三人损害的侵权信息。虽然传统网络侵权一般否定网络服务提供者对内容的风险警示义务,但与一般网络服务提供者所提供的搜索服务、网络信息存储服务不同,生成式人工智能本身对生成信息具有从起点到结果全流程的控制力,且生成内容通常使用户难以分辨对错。故使生成式人工智能服务提供者承担以低成本方式警示用户的注意义务并无不当。对于高风险导致用户损害的专业性信息,如医疗咨询信息、心理咨询信息、金融咨询信息、法律咨询信息等专业信息,生成式人工智能服务提供者应特别提示此类信息的风险,避免用户因误信而遭受损害。对于高风险导致第三人损害的侵权信息亦是同理。例如,在上海某文化有限公司诉某人工智能公司著作权侵权案中,广州互联网法院认为,服务提供者未尽到风险提示的注意义务,应承担侵权责任。
最后,人工智能输出可能导致公众混淆或者误认的深度伪造信息时,应对伪造信息进行标识说明义务。如今,通过生成式人工智能换脸、换声音制作视频已可达到以假乱真的效果。我国法院已在审判实践中明确,虚拟形象的人具有自然人的人格权属性,作为人格权客体受到保护,AI合成声音若侵害了可识别的声音权,权利人的人格权亦受到保护。但我国司法明确,虚拟形象构成作品,作为知识产权亦受到保护。据此,如何在生成式人工智能生成高度使人混淆或者误认的深度伪造信息时,平衡人格权保护和知识产权保护便成为问题。虽然欧盟《通用数据保护条例》(GDPR)第82条将受害者寻求赔偿的对象限定于个人数据的“控制者和处理者”——在深度伪造的应用场景中为深度伪造的创作者和传播者。然而依据最新的欧盟《人工智能法案》(AI Act)第50条第2款与第4款,“特定人工智能系统的提供者和部署者”应当确保人工智能系统生成内容可标注并可检测,且充分披露深度伪造内容。
四、人工智能服务提供者安全保障义务履行的动态体系
(一)对注意义务要素进行动态基础评价的正当性
动态体系论不存在固定的要件,其核心在于确定法律评价的要素对象及对不同要素的基础评价,要素的多少、对不同要素基础评价的强度决定了法律效果的强度。因此,要在生成式人工智能侵权领域构成完整的动态体系论,还需要确定对注意义务的基础评价标准,实现“与要素的数量和强度相对应的协动作用”。在生成式人工智能侵权领域,施加于服务提供者的注意义务等要素越多,服务提供者承担侵权责任的可能性越大;同样地,对履行注意义务等的基础性评价要求越高,服务提供者承担侵权责任的可能性越大。换言之,在基础性评价对注意义务履行程度要求很高时,即便生成式人工智能服务提供者完全做到前述保护性规范所规定的义务内容,也可能因未达到合理谨慎理性人在特定情形下应尽的注意义务履行强度,从而承担侵权责任。
实际上,我国在人格权侵权及网络服务提供者过错认定标准问题上,已经采用了动态体系标准。例如,《侵害网络传播权纠纷规定》第9条、《网络侵权若干规定》第6条均以动态方式规定了网络服务提供者过错的判断要素和评价基准。在“胖某打疫苗案”中,法院认为应从网络服务平台控制力、营利模式、技术特点等多个角度考虑其应履行注意义务的程度。对于生成式人工智能服务侵权而言,“杭州奥某曼”案中,法院以动态弹性的裁判思路判断服务提供者是否违反注意义务。由此,可以进一步构建生成式人工智能服务提供者注意义务履行的基础评价标准。
(二)动态体系下对注意义务进行基础评价的标准
1.侵权防范成本与收益的平衡。判断注意义务履行的第一个关键基础评价维度在于,防范侵权发生的技术手段实施成本与收益的比例。根据汉德公式,若预防损害发生的成本低于损害发生的概率乘以损害的金额,则加害人具有不作为的过错。换言之,若行为人预防损害发生的边际成本低于边际收益,则其对损害的发生存在过失。与传统违反安全保障义务的侵权不同,生成式人工智能服务提供者通常因收费服务获得现实收益,或通过技术垄断实现规模收益。因此,若生成式人工智能服务提供者通过低成本措施即可显著降低侵权风险,如排除特定训练数据来源素材、设定内容输出黑名单和敏感词库、加入专业内容提示,因节省成本或懈怠管理而未实施,则应当认定其未尽注意义务。若其必须通过过高的技术成本才可防止小概率事件的损害发生,则应当认为其虽然未对侵权发生采取防控措施,但已尽到合理注意义务。由此可见,将预防成本与风险收益比例平衡作为基础评价标准,并非要扩大服务提供者的注意义务履行标准,而是保障其预防成本与开发盈利能力相适应。由此,作为注意义务的评价基准,一般而言,对于付费人工智能服务,服务提供者的注意义务程度应高于免费人工智能服务。
在比较法上,欧盟《数字服务法案》基于大型网络服务提供者的较高收益赋予其更高的注意义务,德国则对小型网络服务提供者降低部分注意义务。特别是在德国汉堡地区法院Robert Kneschke v. LAION e. V.案中,法院以生成式人工智能服务提供者LAION为非营利研究组织为理由,认为抓取数据训练AI为科学研究行为,认定其为《数字单一市场(DSM)指令》第3条(EU DSM Directive Art.3)规定的科学研究TDM例外情况,因此不构成侵权。在美国相关人工智能侵权诉讼中,法院通常依据生成式人工智能服务提供者对侵权的防范程度与获取的经济利益判断是否侵权。例如,在美国特拉华州联邦地区法院Thomson Reuters v. ROSS Intelligence案中,法院认为ROSS对WESTLAW数据的使用是为了打造同类竞争法律检索产品并获益,即使侵权内容非公开发布也构成对Thomson Reuters公司的实质侵害。我国《侵害网络传播权纠纷规定》第11条第1款也规定营利性网络服务提供者有较高的注意义务。在“胖某打疫苗”案中,法院明确指出:“被告未因作品的信息网络传播行为直接获得经济利益,不符合承担较高注意义务的情形。”在“杭州奥某曼”案中,法院亦以“杭州某智能科技有限公司可从某AI平台提供的AI创作服务中直接获得经济利益”作为违反较高注意义务的理由。由此可见,虽然该条是对网络服务提供者的规定,但生成式人工智能服务提供者亦应准用该规定。
2.识别侵权后果的难易程度。根据我国《民法典》第1197条的规定,网络服务提供者知道或应当知道网络用户通过网络侵权,而未采取必要防范措施时,应当对侵权承担连带责任。此条来源于比较法上的“红旗规则”,即若侵权像红旗飘扬一样容易被发现,网络服务提供者就不得以不知或不应知进行抗辩。可见侵害后果是否容易识别也应是服务提供者履行注意义务的基础评价标准之一。
第一,对于侵害人格权、个人信息权益等极易识别的侵权内容,生成式人工智能很容易发现核实,并轻松通过关键词屏蔽等技术手段来防范,因此,其注意义务是否履行的判断标准较高。
第二,对于侵害知识产权、商誉等较难识别的侵权内容,该类侵权具有隐蔽性的特点,生成式人工智能较难判断。例如,由大模型根据既有数据编写生成的长文本内容,可能因与某单一作品存在部分雷同而构成侵权,也可能只是与其他作品风格相似,是否构成侵权需结合具体场景判断;对于根据既有网络数据生成的综合法人信息,可能存在对商誉不准确评价,亦难以判断是否侵权。因此,对该类难以发现的侵权后果,生成式人工智能服务提供者的注意义务水平要求可相应降低。但是,注意义务要求水平的降低并非意味着绝对不构成侵权,若侵权后果达到可以明显感知到的程度,则应承担侵权责任。例如,在“杭州奥某曼”案中,法院以“杭州某智能科技有限公司系将具有较高知名度的动漫作品的侵权内容置于其平台中能够为其较为明显感知的位置,杭州某智能科技有限公司应当知道相关内容具有较大侵权可能性”,以及“其引发侵害权利人信息网络传播权后果的态势已相当明显,侵权内容扩散风险较高,因此,杭州某智能科技有限公司应当就相关侵权内容的生成承担更高的注意义务”为理由,判令被告构成注意义务的违反。
第三,对于生成内容本身不侵权,由用户使用生成内容造成的继发性侵权,一般应认为生成式人工智能服务提供者无法发现该侵权后果,并依据算法中立判定其未违反注意义务;但是,若侵害后果是因生成式人工智能引导而成的,如以角色扮演侦探的对话形式,生成实质性引导用户实施犯罪的内容,则应认为该侵权后果可以被识别并有效预防,生成式人工智能服务提供者构成注意义务的违反。例如,在美国最高法院Twitter, Inc. v. Taamneh案中,法院认为恐怖分子虽然使用平台推荐进行招募和宣传,但平台算法推荐只是技术中立地匹配与用户相关信息,并不构成对侵权的实质性帮助。又如,在美国最高法院MGM Studios, Inc. v. Grokster, Ltd.案中,法院认为软件提供者以积极措施引诱用户实施侵权行为,构成侵权。我国司法文件中也明确,技术作为手段具有价值中立性,既不能认为技术中立是侵权责任的免责事由,也不能认为技术提供者就应承担侵权责任。
3.现有行业通行技术水平。由于法律上保护性规范出台的滞后性,若生成式人工智能服务提供者可因履行过时的保护性规范中的注意义务而不构成侵权,则显然有违技术正义。判断生成式人工智能服务提供者对注意义务的履行是否符合现有行业通行技术标准,并非仅限于目前广泛部署的技术工具,还应涵盖行业在当前阶段所能实现的技术能力和软件功能。主要应着重在以下几个层面进行:第一,是否依据现有行业通行技术持续更新侵权防控措施;第二,是否依据现有通行行业技术水平可以预见未来侵权的发生;第三,是否在侵权发生后对造成损害的技术缺陷进行防控。
首先,关于是否依据现有行业通行技术持续更新侵权防控措施的判断。一方面,随着生成式人工智能服务提供者对生成内容的控制能力增强,立法需不断根据现有技术水平调整强化服务提供者的注意义务。例如,欧盟《单一数字市场版权指令》(Directive on Copyright in the Digital Single Market)第17条即以网络服务提供者技术进步为前提,开创性地明确要求服务提供者的版权内容过滤义务。另一方面,由于对生成式人工智能服务提供者的立法规制具有滞后性与不完全性,因此,应明确生成式人工智能服务提供者是否按照行业通行技术水平标准履行了注意义务。我国《民法典》第1221条也将“当时的医疗水平”作为注意义务的判断依据,与生成式人工智能侵权的判断具有高度可类比性。其不仅考虑诊疗行为是否违反《中华人民共和国医师法》等诊疗规范中的注意义务规定,还考虑是否符合现有医学主流观点等内容。因此,生成式人工智能服务提供者亦应根据行业通行的技术水平持续更新优化侵权防控策略,若其未随着行业技术发展更新其侵权防控水平导致侵权发生,则应认为其构成注意义务的违反。
其次,关于是否依据现有通行行业技术水平可预见未来侵权发生的判断。在责任构成上,可预见性是对侵权人注意义务是否存在的判断标准;在损害赔偿上,可预见性是对侵权与损害因果关系的判断标准。因此,服务提供者在现有通行行业技术水平上,能否合理预见侵权在未来的发生,成为其是否违反注意义务的重要判断标准。例如,在“三某牌电器案”和“Tiffany案”中,法院都认为因当下技术不支持网购平台具体地甄别每一个商品是否侵权并下架,网络平台概括地知道可能存在的概括侵权信息不构成注意义务不履行。可见对于可预见性的判断,应以具体某个侵权的预见能力为标准,结合现有通行行业技术水平进行判断。若现有通行行业技术水平不支持生成式人工智能提供者发现具体的侵权,则其对侵权的发生没有具体的预见能力,不构成注意义务违反;若未来通行行业技术水平已支持生成式人工智能提供者低成本地预见具体侵权,则构成注意义务的违反。
最后,关于是否在侵权发生后对技术缺陷进行防控的判断。在动态体系下,对符合现有通行行业技术标准进行事后防控的判断,既是注意义务履行的认定标准,也是免责事由。换言之,生成式人工智能服务提供者若根据当时行业通信技术水平履行了事后防控措施,则在要素上的基础评价为不应承担侵权责任。例如,生成式人工智能服务提供者对外部黑客攻击风险已进行当前技术水平下的合理防控,并在被攻击后根据技术防控方案作出相应防护措施,但仍然因外部攻击生成了侵权内容,则服务提供者不应承担责任。
是否在侵权发生后根据当时技术水平对技术缺陷进行防控的判断与“避风港规则”的适用不同。适用于一般网络服务提供者的“避风港规则”适用于生成式人工智能侵权的场合有些南辕北辙。在实定法上,适用“避风港规则”是依照我国《民法典》第1195条,根据该条规定,接到侵权通知后的网络服务提供者应对侵权采取合理必要措施,未采取合理必要措施的提供者应就侵权扩大部分承担连带责任。但是,人工智能服务提供者能否符合我国《民法典》第1195条定义的网络服务提供者不无疑问。最早设置“避风港规则”的《数字千年版权法》(Digital Millennium Copyright Act, DMCA)也没有明确何种样态的网络服务提供者应适用“避风港规则”,只是列举可以适用“避风港规则”的“服务提供者”(Service Providers)包括三类:在线内容传输服务提供者、在线内容存储服务提供者、在线内容链接服务提供者。我国《信息网络传播权保护条例》第14条借鉴了该分类,规定仅在线内容存储服务提供者、在线内容链接服务提供者可适用“避风港规则”。
然而,人工智能服务提供者对于生成内容侵权风险的控制力远大于一般网络服务提供者。详言之,生成式人工智能服务与在线内容链接服务提供者不同,在线内容链接服务(搜索引擎服务)只是提供已经存在的网络信息的链接服务并进行简单的算法排序,并不对信息来源进行识别,也不对信息进行深度加工处理;而生成式人工智能是直接对信息进行深度加工输出,侵权内容是由生成式人工智能根据用户提示词生成。生成式人工智能服务与在线内容存储服务提供者不同,在线内容存储服务只是对用户发布的信息作内容收集存储,生成式人工智能还对信息进行深度加工处理。可见生成式人工智能生成内容并非完全由用户上传而是由系统自主生成,其内容结构与生成逻辑对服务者而言具有高度可预测性。服务者掌握模型参数、数据来源与输出行为,天然拥有技术控制能力。因此,生成式人工智能服务提供者在本质上与在线内容存储服务提供者、在线内容链接服务提供者不同,是新型网络内容提供者。侵权的产生原因,是生成式人工智能服务者的不作为与用户的作为相结合。换言之,是生成式人工智能服务者与侵权用户共同侵权。由此,使生成式人工智能服务提供者适用“避风港规则”显然过于降低了其注意义务履行的标准。并且,“避风港规则”本身可能在生成式人工智能服务上失灵。例如。生成式人工智能通过大数据、大模型深度“洗稿”的内容,无论是权利人还是审核人都很难发现。同时,大规模用户通知将会造成生成式人工智能服务提供者的人工审核成本急剧增加。
事实上,“避风港规则”在中国侵权法上本就是归责条款而非免责条款,是受害人用以证明网络服务提供者未尽注意义务的方式之一。项认为生成式人工智能服务提供者可以适用“避风港规则”的观点也认可生成式人工智能服务提供者本身不是我国《民法典》第1195条规定的网络服务提供者,只是因为生成式人工智能服务提供者根据现有技术难以对生成信息实时审查,由用户通知删除成本较低。正是基于以上原因,《暂行办法》第9条将生成式人工智能服务提供者规定为信息内容生产者而非网络服务提供者。
五、结语
动态体系论,是对规范内容解构后提取出核心原理要素,并通过赋予这些要素评价基准,以“或大或小”而非“全有全无”的方式影响个案判断。通过明确要素和评价基准,动态体系论不仅保障了法律的稳定性,克服了自由法学的局限性,也通过灵活调整要素的适用程度,解决了概念法学的僵化问题。在生成式人工智能侵权责任的认定中,动态体系论能够有效平衡过错与危险两个要素,解决传统归责理论的适用困难。也为生成式人工智能服务提供者的安全保障义务提供了更加灵活和明确的判断框架。通过综合考虑侵权预防的成本与收益、侵权后果的识别难易程度以及行业内现有技术标准,动态体系论为注意义务的履行提供了动态的评价标准。这使得在保障侵权法理论与规范稳定的同时,能够根据技术发展和新兴风险保持适应性和灵活性。
来源:《法学杂志》2025年第6期

