人工智能的侵权责任,既是一个大话题,也是一个小切口,既具有广阔的理论视野,又可从精细的问题切入。与此同时,人工智能的侵权责任不仅紧密关联当下社会生活的现实情境,也深刻关涉未来科技发展的法治应对,具有重要的理论价值与实践意义。
在具体讨论之前,需要指出的是民法典具有包容性。人工智能致害的很多问题都能通过民法典的解释加以解决。诸如人工智能致害等问题看着是新的,但是其实可能没有那么新。例如大模型人工智能训练阶段的侵权问题,主要是语料的使用涉及侵害著作权、个人信息权益的问题,至于大模型的商业化利用主要涉及商业秘密或者专利的问题,而大模型人工智能的输出则涉及对名誉权、荣誉权、隐私权或者个人信息权益的侵害。又如,工业人工智能可能存在专利技术方面的侵权问题,智能驾驶系统可能涉及人身财产安全的侵权问题。此外,欧盟《人工智能法》中涉及的高风险的人工智能,这个概念不能简单直接照搬到侵权法的领域中。这里所说的高风险人工智能,可能是在监管层面具有高风险,但是不能简单等同于侵权法中的高度危险责任。
要明确是人的责任还是人工智能体的责任。当前,人工智能的发展状况尚处于相对初级阶段,距离实现类人智能乃至超越人类智能仍有较大差距。以某些被广泛宣传为“最先进”的人形机器人为例,其在公开展示中仍需依赖人员扶持、牵引,尚无法独立完成基本的人体动作。因此不要将科幻电影描述的场景作为讨论人工智能致害的原型,人工智能没有发展到很高级的水平,远远没有达到和超越人类的思维。至于人工智能超越设计者设定的定律,目前只是存在于科幻作品中。除此之外,即便人工智能得到进一步发展,人类的认知水平也会水涨船高地进步。所以人工智能的发展并不是单纯赶上人类,而是会把人类的认知能力、判断能力进一步向前推高。
笔者主张应当对人工智能的现状有一个清醒的认识,可以说,目前不需要担心人工智能短期之内将超越人类因而产生高度危险。基于这样的一个认识,我们就能解决责任主体的问题。人类的主体性,现在不是应当被否认,而是应当加强。只有强化对人类的主体性认识,才能发展科技、提升文明。当然,人类也会向更高质量发展的,只有人类进步了才能够正确解决科学技术发展带来的人类社会问题。基于这样的判断,笔者始终认为人工智能假如有侵权责任问题,一定是人的责任,与人工智能体无关。人工智能体只不过是一个具有智能的工具,生产的工具,写作的工具。
要明确是产品责任还是“产品+服务”的责任。人工智能引发损害时,应当适用产品责任还是服务责任?这首先涉及人工智能的法律属性认定。严格而言,人工智能确实可以被视为一种“产品”,但显然不同于传统意义上的实体产品。在传统模式下,诸如食品、瓶装饮用水、燃油汽车等商品,其产品属性明确,法律归责路径清晰。然而,在人工智能应用场景中,产品与服务的边界日益模糊。以当前广泛应用的大模型为例,用户往往无法直接购买人工智能本体,仅能在平台授权下接入模型服务。即便进行本地部署,也通常只涉及硬件(如芯片)的采购,而相关算法本身则仍属于模型提供方,如OpenAI、DeepSeek所有。除此之外,服务是动态的,持续演化的。例如,用户购买了OpenAI的服务之后,其在不断的迭代进化,即使是在同一个版本里面,计算能力或者推理能力也在不断升级加强。所以远远不能够用产品责任来解决这些所有的问题,里面更多的还有服务。
智能驾驶技术同样体现出产品与服务高度融合的特征。智能驾驶技术不仅仅是一个离线的软件,而是通过实时通信与外部环境进行交互和操纵应用的系统。甚至可以说,将来有可能所有智能汽车都有一个控制中心来实时提供驾驶服务,更加不是一个真正的产品问题,更多的是这个服务中出现的问题。在此背景下,人工智能致害可能不是因为产品存在问题,而是服务出了问题。比如说指令延迟下达了,导致没有迅速接管发生了车祸。所以需要深刻的认识,今天人工智能导致的责任不是单纯的产品责任,而是产品和服务的综合体。故此,随着人工智能的发展和商业化使用,产品和服务的界限模糊。人工智能时代的侵权责任已不再适用传统产品责任的单一范式,而是应构建面向“产品–服务融合体”的复合型归责机制。
要明确是过错责任还是过错推定责任。在人工智能领域,由于人工智能的设计者、服务提供者有较强的技术壁垒,消费者难以理解也不需要理解人工智能产品的技术设计路径、致害过程等原理。故此,笔者认为在人工智能侵权责任的归责原则上,应当坚持民法典第一千一百六十五条所确立的过错责任原则。只不过,有的时候应当适用民法典第一千一百六十五条第一款,而有的时候应当适用民法典第一千一百六十五条第二款。这主要是因为,消费者在技术和信息方面与研发营运者的不对称,给人工智能体的服务提供者或者产品的设计者施加一个过错推定,由他们证明自己没有过错。事实上,类似的归责思路在现行法律中已有体现,例如个人信息保护法第六十九条规定个人信息侵权场景中适用过错推定,由个人信息处理者证明其已尽合理注意义务。这为在人工智能损害责任中引入类似机制提供了重要的制度参照。
此外,关于人工智能侵权责任的承担主体,特别是在研发者与部署者之间的责任分配问题,学界已有诸多讨论。有的学者认为,人工智能责任的归属必须结合技术开发链条与实际控制权进行判断。对此,笔者在整体上认同这一观点,即应注重实际控制与受益机制,但在若干具体维度上,仍有进一步区分的必要。比如说,笔者认为人工智能设计者不宜被单独作为责任承担主体。人工智能系统的形成通常由多个层级、多个技术模块所构成,其背后的算法设计者、组件供应方数量庞杂且分散,受害人往往难以准确识别和定位,存在极大的可追责障碍。相较之下,那些实际将人工智能系统投入市场、对其运行和结果具有控制能力,并由此获取直接经济利益的研发部署者即营运者,更应成为责任的主要承担者。
要明确是商业保险还是生产者自保。传统机动车事故责任体系,是以“机动车驾驶人”作为主要责任承担者。传统机动车本身不具有高度危险性,而是人类驾驶机动车的操作行为被认为具有一定的风险性,而这种风险的控制者即是机动车驾驶人。因此,无论是在侵权责任法还是民法典框架下,机动车驾驶人都被作为首要的侵权责任人,责任保险亦以其为核心设置,诸如交强险和第三者责任险在此制度逻辑下应运而生,并已形成一套成熟的制度体系。
然而,随着智能驾驶系统的不断升级,如果交通事故发生的主要的原因不在于驾驶的行为人,而是在于人工智能,或者是在智驾系统设计上存在缺陷,或者是在提供服务上面发生问题,那么此时再让机动车驾驶人承担责任,由其购买交强险,可能就是有问题的。也就是说,人的操作主导地位逐渐被边缘化,最终可能完全退出控制环节。因此,笔者认为应当逐步将产品加服务的责任保险作为今后主要的改革方案。目前来说,由于是这个智能车和非智能车在一个过渡阶段,也是在从L2向L3过渡,目前不能够退出个人的责任或交强险,但是要逐步地过渡到智能汽车的产品或服务保险,并辅助以机动车驾驶人的个人责任。将来甚至不再由机动车驾驶人承担责任,而是保险机构在承担了产品和服务保险之后,再向有过错的机动车驾驶人进行追偿。
同时,随着行业集约化的趋势加剧,智能汽车制造商的数量可能大幅减少,产业将朝向寡头格局靠拢。在这一过程中,大型制造商或平台运营方可能选择建立“自保机制”,以应对规模化运营中出现的大量潜在赔偿责任。所谓自保机制,是指企业或组织不依赖传统商业保险公司承担风险,而是自行设立资金池或内部制度,用以应对未来可能发生的损失或责任的一种风险管理方式。
如今,人工智能技术迎来了爆发式发展,已经对国家、社会和个人产生了广泛的影响,然而技术的复杂性导致其治理面临诸多挑战。因此,唯有将其纳入法治化轨道,才能构建起更全面、更适配人工智能时代的侵权责任保障体系,为公众权益筑起坚实的法治屏障,让人工智能技术在安全与责任的平衡中稳健前行。
来源:人民法院报·2版

