论文精粹|INFORMATION
郑玉双:自动驾驶的算法正义与法律责任体系
管理员 发布时间:2022-07-23 09:41  点击:1435

自动驾驶或无人驾驶技术是人工智能技术应用的前沿领域,也是智能时代最值得期待的科技成就之一。随着道路交通运行的数据化提升、可信任算法的深入应用和算力的有效保障,自动驾驶成为智能社会的建设方向。如果自动驾驶汽车能够实现商业化应用,人类社会不只会迎来交通出行的革命,也将经历人机协作和观念形态的巨大转型。然而,除了需要突破算法程序设计、环境传感和数据处理等技术难题之外,自动驾驶所引发的伦理担忧和法律挑战也尤为突出,尤其是碰撞困境所引发的责任难题。

目前,对自动驾驶之挑战的研究大致可以分为两种思路。一种思路通常将自动驾驶引发的道德困境与电车难题进行对照,从电车难题的解决方案中寻找可以应用于自动驾驶之技术挑战的伦理原则。1另一种思路则倾向于在法学知识体系内部建构出应对自动驾驶之责任分配或权利配置的基本原理,并为自动驾驶立法提供法教义学支持。2本文尝试找到解决自动驾驶之伦理困境和政策难题的法理出路,补足自动驾驶之法教义学建构和责任体系设计背后的价值基础。自动驾驶之伦理和法律挑战的破解之道在于构建出面向人机协作的算法正义观,在其指导下设计出一种能够有效应对紧急情况的碰撞算法,并重构相应的法律责任原理。本文主张,基于算法正义理念,最大化最小值算法是克服人机协作之技术困境并解决碰撞难题的较佳方案。下文将围绕最大化最小值算法而构建出包含教义学责任和证成性责任的法律责任体系,有望为自动驾驶汽车从理想转为现实找到可靠的法律出路。

一、自动驾驶的伦理与法律挑战

(一)自动驾驶的伦理挑战

与人工智能所引发的伦理隐忧相伴,自动驾驶从进入公共讨论视野后就伴随着伦理争议,人们认为自动驾驶会引发严重的道德困境。碰撞和事故是驾驶的常态,自动驾驶汽车也不能完全消除碰撞风险。由于驾驶过程是精密的自动驾驶算法主导的,个人意志无法掌控,那么在带来生命危险的碰撞中,算法应当如何进行选择?自动驾驶汽车算法在传感、感知和决策能力上远超过人类驾驶者,但并不具备人类所拥有的道德决策和反思能力,也不具备人类的道德地位。3由机器根据预设算法决定碰撞中的道德困境如何解决,在伦理上引发了新的难题,我们可以称之为自动驾驶的人机协作难题。请设想以下三种情境:第一,自动驾驶汽车在行驶中遭遇迎面而来的失控汽车,直行则会造成乘客死亡,左转则会撞死一名路人,右转则会撞死五名路人。第二,自动驾驶汽车在行驶中突然遇到倒在路上的大树干,直行则会导致乘客死亡,紧急转向则会撞向路边施工的工人。第三,自动驾驶汽车在行驶中突然遇到误闯入车道的自行车赛车手,直行会撞死赛车手,转向则会导致乘客死亡。

这些情境只是自动驾驶汽车行驶中可能遇到的一部分艰难抉择而已。自动驾驶汽车要成功上路,就需要在伦理上解决这些疑难,回应伦理挑战。然而,这些情境并不同于人类所面对的“电车难题”。机器算法的道德决策应当在社会计算化的语境下开展,由此必须回答两个前提性问题。第一,人机协作的决策模式是否改变了人类道德推理的基本原则和方式?第二,在自动驾驶技术的实际应用中出现的道德疑难,是否存在着确切的解决方案?

为了应对这些碰撞难题,研究者提出了自动驾驶的各种道德算法方案。道义论算法以康德伦理学为基础,主张机器不能伤害人的生命。阿西莫夫机器人定律是道义论算法的典型体现,但很少有学者支持这一方案。德国2018年发布的《自动驾驶汽车伦理准则》蕴含着道义论色彩,例如,其规定,“当自动驾驶车辆发生不可避免的事故时,任何基于年龄、性别、种族、身体属性或任何其他区别因素的歧视判断都是不允许的”。4由于碰撞是不可避免的,这一原则对算法设计并无具体的指导意义。功利主义算法在直觉上具有吸引力。MIT的“道德机器”模拟实验游戏测试了游戏用户在不可避免的碰撞中的选择,基于四千多万用户的测试结果表明,大多数人倾向于为了保护多数人而牺牲少数人。功利主义伦理本身具有计算优势,5功利主义算法主张自动驾驶的碰撞设计应当追求损害的最小化。6但功利主义并不包含将功利计算向算法设计转化的伦理指导,碰撞选择也不能完全化约为生命数量的衡量,所以将功利主义算法用于回答上述三种情境中的碰撞选择,会得出让人无法接受的结果,这也是功利主义算法在市场调查中遇冷的主要原因。

(二)自动驾驶的法律挑战

虽然自动驾驶汽车在多数国家尚未正式上路,但自动驾驶的法律挑战已初露端倪。这种挑战可以分为两个层次。一种是制度意义上的,即自动驾驶对传统汽车行业相关法律制度造成了冲击,如对产品质量认证、行政监管模式和道路交通管理方面的冲击。另一种是价值和责任意义上的,即自动驾驶对生命安全价值和法律责任分配造成了冲击。制度挑战可以通过顺应智能化转型的制度优化和调整加以解决,价值和责任层面的挑战则比较棘手。上述三种情境不仅产生了伦理困境,也使自动驾驶陷入法律危机。当前已有学者对辅助或完全自动驾驶所引发的侵权责任和刑事责任等作了很多有益探讨,但自动驾驶的法律挑战依然严峻。

生命安全依然是自动驾驶所追求的首要价值,然而安全价值在人机协作语境中的呈现方式发生了变化:第一,汽车行驶安全的本质是自动驾驶算法在软硬件协作框架下针对驾驶环境而输出的正确决策,因此,其本质是“输入—输出”的决策安全;第二,安全是人机协作的结果,即人类设计的产品(传感器、雷达、芯片、地图和通信设备等)和执行感知、识别和决策任务的算法在具体场景中完成驾驶任务。百度公司、中汽中心、同济大学发布的《自动驾驶汽车交通安全白皮书》提出自动驾驶汽车有望将人类因素导致的交通事故减少89%。7但由于汽车故障或人类干预导致的事故仍不可避免,前面列举的因突发情况而产生的艰难情境也会不断出现。法律如何应对这些事故导致的责任难题?

在民法意义上,汽车故障导致的事故引发侵权责任,因此应当确定责任主体,自动驾驶汽车的智能属性给责任主体和归责依据的确定增加了困难。自动驾驶算法是基于数据集和成熟算法模型而编程的,并不能完美应对各种突发情况,在驾驶中可能会因为干扰因素(如误闯入车道的自行车手)而造成伤亡。生产者和消费者可以预料到这种结果的发生,但它是否源自产品缺陷,则无法从既有教义中获得答案。

在刑法意义上,既有研究主要关注两个层面:一是汽车致损的刑事责任认定;二是碰撞难题中的刑事责任分配。自动驾驶汽车对生命安全价值的潜在威胁构成了法益基础,因此对汽车生产和行驶过程中的危险行为有进行刑事追责的必要。在第一个层面上,与侵权责任认定的难题相类似,3级自动驾驶有驾驶者的参与和接管,因此可以基于既有刑法教义学进行追责,比如针对驾驶者接管不力或疏忽导致的伤亡而追究驾驶者的过失责任。8但在4级以上自动驾驶中,刑事追责的困境就凸显出来了。如前所述,在完全由自动驾驶算法完成感知、传输和决策的真实驾驶场景中,算法在某种程度上脱离了生产者、设计者和所有人的“掌控”。由于驾驶情况复杂,算法失灵未必由设计缺陷引起,由此也难以判断生产者和设计者是否有过失。

在第二个层面上,刑事责任认定则陷入更深的困境中。虽然类似电车难题的碰撞难题并不常见,但自动驾驶算法设计需要预先对各种碰撞情形进行虚拟训练,以便在遇到类似难题时作出决策。然而,有两个难题立马呈现出来:一是设计碰撞算法的主体应该为碰撞结果承担责任吗?二是碰撞算法应当如何设计?

法教义学对于这两个问题并无现成答案。电车难题作为一种思想实验,可以保持答案的开放性,人类驾驶员在遇到这种困境时,会对其瞬间决策所导致的损害结果承担责任。自动驾驶的出场改变了人类面对道德困境的解决方案及其法律后果。当人机协作参与到交通出行中,在自动驾驶算法提前对汽车的行驶和碰撞选择进行规划和预设后,以人类主体过错为责任分配依据的传统模式不再适用,因为汽车驾驶者不再是通过个人意志和选择来应对驾驶过程中的各种突发情况或风险,而是交由算法通过分析和计算来前瞻性地应对未知情形。9自动驾驶算法既要最大程度地保障生命安全,又要作出合乎伦理和法律的碰撞抉择。因此,碰撞算法的设计成为应对自动驾驶之伦理和法律挑战的关键环节。

二、算法正义与最大化最小值算法

(一)自动驾驶的正义维度

是否应赋予汽车以主体地位和人格,自动驾驶算法致损的责任应由谁来承担,以及在碰撞困境中谁应该承受损失等问题,都是正义理念要解决的。而这些问题与传统法律实践的不同之处在于,它们必须在对正义的追寻中展现算法的技术和价值意义。已有论述关注到算法对传统正义观念所造成的冲击,10但关于自动驾驶算法如何改变正义实现方式的问题,目前讨论较少。应对自动驾驶的伦理和法律挑战,不仅需要提出特定的伦理和法律方案,也需要回到作为伦理和法律实践之根基的正义价值。尽管人们对正义的内涵有不同见解,但从正义维度探究自动驾驶具有两重意涵。

第一,人工智能和社会的计算化工程将人类社会带入一个新的技术化的正义环境中。传统正义观涉及共同体的社会合作框架、利益的分配以及应得(desert)问题。11自动驾驶必然涉及正义实践的基础,因为自动驾驶引发新的社会合作形态,带来新的技术格局以及利益的重新分配,并创造出自动驾驶汽车产业全局中各方主体的全新权责形式。从正义视角切入自动驾驶的伦理和法律问题势在必行。

第二,自动驾驶算法的设计是一个技术问题,软件服务商基于对算法计算能力和精准性的追求而展开激烈竞争,不断实现算法技术升级。但其更深层的本质是正义问题:自动驾驶汽车在道路环境中行驶,使用道路这种公共物品,基于安全价值追求而作出决策时,必然引发分配正义问题。12前面提到的碰撞责任分担和碰撞算法设计的问题,也是分配正义的直接体现。

(二)算法正义的基本内涵

第一,由于算法的介入,驾驶的正义环境被改变,正义价值的内涵及其相关价值在形态上也发生了变化。算法对价值形态的冲击是非常明显的,比如算法歧视与传统意义上基于性别或肤色而作出的差别对待不同,它是通过计算方式把偏见以客观数据的形式展现。算法歧视破坏了平等价值,但平等的价值形态在数据处理和计算过程中也发生了变化。同样,当自动驾驶算法把尊重生命、谨慎、公平、程序等价值主张转化为一系列数据、函数、模型和决策树的时候,这些价值的形态必然会变化。自动驾驶的伦理和法律挑战通常与价值判断相关,例如,使用自动巡航功能的特斯拉汽车因为视觉识别系统把白色大卡车误判成天空而产生事故。13这种系统的技术失误是否构成产品缺陷,设计者是否构成过失,是典型的价值判断问题。如果只按照传统价值观来理解设计者的主观状态,那么显然会陷入困境。

第二,提炼正义原则需要结合自动驾驶算法在人机协作中的决策地位。对侵权的救济和犯罪行为的惩罚是实现矫正正义的途径,14过错责任、严格责任、罪刑法定等基本原则也内含着正义的价值内核。然而,这些原则都预设了人的主体性和能动性(agency)。虽然自动驾驶算法不具备主体地位,但其在驾驶中的决策主导性至少部分地替代了人的主体性和能动性。由此产生的问题是,对算法决策后果进行追责的矫正目标是算法还是人?如果只是通过设置交通肇事罪、责任事故罪对生产商、车主进行追责,那么这无法改变算法的决策角色。算法正义不仅关注人在自动驾驶汽车生产、运行和追责中的角色,也需要评价算法的伦理与法律意义。

第三,算法正义的核心内容是针对自动驾驶的碰撞困境确定正义方案,这项工作应当围绕算法而展开。在目前应对碰撞困境的各种伦理和法律方案中,算法技术的统摄性地位并未受到重视。在自动驾驶过程中,碰撞的发生受概率、技术和运气等复杂因素的影响,但本质上是一个正义问题。一方面,碰撞是预先设计和算法自主决策的结合,“具有各种传感器(例如距离、灯光、碰撞)和电机设备的简单汽车已经可以通过自组织神经网络产生复杂的行为”。15 另一方面,碰撞算法的设计是程序员将制度化的社会道德共识或偏好转化为代码和决策机制。碰撞算法的设计在技术上是专业程序员编程,但计算代码内含着“传统交通和智能交通、传统伦理与机器伦理、传统交通法律与智能交通法律之间的对立和调适”。16 碰撞算法的设计需要在技术、伦理和法律的交互融合之中呈现出正义的脉络,道义论和功利主义算法无法胜任这一任务,因此需要探索新的道德算法,以体现算法正义的要求。

(三)最大化最小值算法的设计

根据人机协作的特殊性,解决自动驾驶的碰撞难题应当采取一种由反思平衡模式引导的最大化最小值算法。罗尔斯的最大化最小值原则强调的是,人们在无知之幕下,应当尽可能选取这样一个选项,即它的最糟糕后果将使人们的处境好于所有其他选项的最糟糕后果。17从罗尔斯的正义理论出发进行自动驾驶算法的编程,并不意味着该理论无懈可击。其优势在于,以罗尔斯所设想的“无知之幕”作为确立自动驾驶伦理的假设语境,更好地揭示了人类社会在面向智能化和人机协作的前景时所面对的困境。18在自动驾驶上,无论是汽车生产者、所有者还是行人,都应将自己放置在无知之幕中,选择最符合正义感的算法设计方案。这个理论思路体现了对人的尊重,即人们在无知之幕下会选择对每个人都公平的自动驾驶算法和碰撞方案。这既解决了自动驾驶技术进入实际应用的门槛问题(部分地通过民众期待得以体现),也能在自动驾驶技术落地之后,通过重叠共识和多元理性更灵活地应对实践过程中的各种难题。19

在碰撞情形中,我们应当基于最大化最小值原则设计自动驾驶算法:在碰撞造成的各种事故场景中,通过对损害和生命危险进行量化和计算,确定生存概率。每一种碰撞选择都会存在生存概率的最高值和最低值,相较之下,最低值最高的那个选择是合乎正义的碰撞选择。20

举例来说,一辆载有四名乘客的自动驾驶汽车正在道路上行驶,迎面驶来一辆失控的大卡车。如果汽车撞向卡车,则会导致四名乘客死亡,卡车司机重伤;如果汽车紧急转向,撞向路边的五名路人,或者撞向道路边施工的五名工人,则会导致乘客、路人和工人不同程度受伤或死亡。根据汽车撞击程度、路人年龄和身体状况的计算,可以设想不同碰撞情形下每个人的生存几率如下:

第一,在撞向卡车的情况下,四名乘客的生存几率较小,计算为0.01和0.10。卡车司机受重伤,计算为0.30。碰撞结果为:0.01;0.01;0.01;0.10;0.30。

第二,在撞向五名路人的情况下,由于事发突然,路人无法躲闪,生存几率较小,根据年龄和身体状况,计算为0.01和0.10。车上乘客由于车辆保护,生存几率提高,计算为0.25和0.30。碰撞结果为:0.01;0.01;0.01;0.01;0.10;0.25;0.25;0.30;0.30。

第三,在撞向五名工人的情况下,由于存在防护,部分工人生存几率提升,计算为0.01、0.10和0.15。碰撞结果为:0.01;0.10;0.10;0.15;0.15;0.25;0.25;0.30;0.30。

由于三个选项都存在0.01这一最小值,则遮挡该值,继续进行最小值的比较。第二轮比较仍然存在0.10这一共享最小值,则继续比较。由于卡机司机的生存几率实际为最高值,所以不参与比较,那么选项一的最小值为0.25,选项三的最小值为0.15,选项二的收益最大,则选择选项二,即撞向五名路人。

最大化最小值并非要计算碰撞中的最大功利,而是在算法内嵌之紧急情形下提出一种解决生命权冲突的公平决策。正如有学者指出的:“如果存在一种危险共同体,即多人或一个团体中所有人都处于同样的死亡危险之中,只能牺牲一人或几人的生命来挽救其余人的生命,则允许计算生命的多少。”21最大化最小值算法并不绝对地保护乘客,而是在对各方主体的存活概率进行测算之后,“在笛卡尔积的映射数据集中权衡事故主体存活概率的最低收益集,经过循环穷举,筛选出将最低收益最大化的操作;若多种操作收益相同,则使用随机数决定最终操作”。22

上述例子只是一个简单模型,真实世界中的自动驾驶远为复杂,涉及各种变量。变量的存在并不会削弱最大化最小值算法的说服力,反而可以验证这一算法的可行性和优势。在算法的伦理分析中,变量的出现有两层意义。第一,变量可以促进数据的积累。数据越多,算法计算的精确性就越能提升。自动驾驶的碰撞数据可以反复验证最大化最小值算法的可行性,即算法是否能够准确计算每种选择中的最小值,反过来为数据训练提供支持。第二,通过拓展算法的应用空间来促进人机协作的层次和深度。机器道德和社会道德的差异体现在社会道德通过人的观念共享而发挥道德指引作用,机器道德通过算法技术升级和结构优化而实现。算法正义的实现除了在理念上论证最大化最小值算法的正当性之外,还要通过实地的计算模型验证和优化来强化算法的可操作性。

根据既有研究,可以将自动驾驶算法运行中出现的变量总结为以下若干类型:

 

(四)对最大化最小值算法之辩护

批评者认为,这种最大化最小值的算法设计误解了罗尔斯关于无知之幕中人们选择公平正义观的动机。基林(Keeling)认为,在无知之幕中的人们选择公平作为最佳正义观时,他们对这种正义观的利弊作出了充分的论辩和权衡,但针对自动驾驶的碰撞难题,人们无法公允地论辩如何设计自动驾驶的算法,因此,最大化最小值算法无法从罗尔斯的正义理论中获得有力支持。23余露认为,罗尔斯的正义理论并不支持对碰撞事故中的个体生命进行量化,罗尔斯强调的是生命质量的正义维度,而非生存几率。24

这些批评都不足以对最大化最小值算法造成冲击。道德原则向计算指令的转化,改变了道德规范的存在形态,构成了对人类道德实践的深刻调整。道德实在论无法体现出人类道德和机器道德的差异,建构性地理解机器道德及其实践是正义实践的有机延伸。即使自动驾驶的碰撞情形与无知之幕不完全类似,但在自动驾驶带来的全新正义环境下,通过对碰撞损害分配的反思平衡,最大化最小值算法符合算法实践的正义方案,与罗尔斯的正义理论是内在一致的。虽然生命质量与生存几率不是同一回事,但在碰撞情形中,生存几率的计算和评估是生命这种基本善的正义分配问题。在是否能够权衡和计算生命的问题上,最大化最小值算法并未偏离社会正义实践中尊重人的尊严和生命价值的基本共识。

三、自动驾驶的教义学责任

自动驾驶对法律责任体系的冲击是剧烈的。责任存在的意义是彰显人的主体地位、划定社会行为边界和促进社会协作,人机协作在这三个方面改变了责任的社会基础和实践结构,将机器决策嵌入到汽车生产者、软件服务商和车主的社会角色之中,重塑了这些角色的责任形态及归责模式,同时也促发了法律制度自身的调整。产品质量、注意义务、因果关系、紧急避险和过错等传统责任要素都需要在自动驾驶所创造的正义语境(特别是不可避免的碰撞情形)中被赋予新的规范内涵。自动驾驶的法律责任体系在结构上包含着各方主体的民事责任、行政责任和刑事责任等,在内容上体现为责任基础认定、责任的教义学化和可责性(culpability)判断等各个环节。自动驾驶的责任法理聚焦于两个问题:一是算法正义如何在自动驾驶责任体系的构建中发挥作用;二是最大化最小值算法如何转化到教义学框架中,以实现对各方主体的责任认定和可责性判断。

(一)基于算法正义的新兴责任体系

基于算法正义的基本内涵,自动驾驶中的人机协作改变了各方主体的责任形态,将传统的责任分离型安全行驶实践转化成由算法贯穿全局的高度结构化和联动型的智能协作。这一转型体现在三个方面。

1.责任主体的认定

按照当前的伦理学探讨,主流观点认为自动驾驶汽车并不具备承担责任的主体资格,算法仍然是人类行动的代理者,其决策责任仍旧归于人类自身。25个体或团体承担责任的基础在于人格的存在,比如侵权责任表明个体具备作出矫正的能动性人格,可以弥补错误和表达歉意,刑事责任表明行为人基于其犯罪行为而具有应受惩罚的可责性。算法的介入影响了相关主体的人格状态,在他们的社会人格之上附加了技术人格,从而引发责任关系的变化。例如,传统汽车生产者只有保障汽车出厂合格的责任,而对驾驶者过错造成的损害无需承担责任。自动驾驶汽车的生产者却需要联合软件供应商对汽车的全部驾驶过程担责,特别是要在各种复杂情境中实时防止碰撞的发生。

由于预测人机互动方式的内在复杂性和机器产品的相对自主性,让生产者尽到充分的注意义务是很困难的。26对生产者的责任认定已经超越了传统责任观所内含的“自负其责”的人格意义,更多地彰显出各方主体在万物互联的技术领域中越来越突出的技术人格属性。当然,这并不意味着自动驾驶汽车的法律责任建构需要一种完全不同于传统理论的新思路,而是要在责任主体的认定中,展现出其新兴技术人格状态,并据此调整法律制度,比如修改与汽车相关的消费者权益保护规则、交通事故认定和举证规则等。

2.道德责任与法律责任的融合

在法律制度的发展历程中,道德责任与法律责任呈现出逐渐分离的趋势。法律责任包含着特定道德内涵,比如刑事责任体现了“向被告、被害人、一般公众及刑事司法官员传达对行为人的道德批评”。27但法律责任也蕴含着通过法律实施来维持社会合作的非道德性功能,比如提升经济效益、激励民众守法等。典型的例子是紧急避险,人在紧急情况下为了避免迫在眉睫的危险而对其他人造成损失,这种做法在道德上是可责的,但通常无需承担法律责任。这种责任分配的合理性并不在于紧急避险在道德上的可辩护性,而是通过分摊社会成员面对未知世界的连带风险,提高社会成员应对风险社会处境的灵活性,“以牺牲他人来回避危险的妥当性,是以承认自己在紧急避险状况中,也会为他人而牺牲为基础”。28

3.动态的算法正义责任机制

从人机协作对责任主体和责任内涵的冲击来看,自动驾驶之责任体系的构建需要保持动态性和开放性。责任体系的动态性体现在,法律责任体系要适应人机协作不断深化、算法技术不断升级的智能化社会转型。随着自动驾驶技术的应用越来越广泛、驾驶数据的不断累积,汽车应对突发状况的机器学习能力不断提升,对汽车生产者改善汽车性能和算法设计者更新算法的责任要求也需要动态更新。责任体系的开放性体现在,法律责任的设定和归结既要保持教义学意义上的稳定性,同时又要兼顾算法技术的动态发展。应对碰撞情形的算法责任最能体现这种动态性和开放性,而最大化最小值的理念设计,可以保障法律责任体系的构建更好地实现算法正义。

基于上述三重转变,自动驾驶的责任法理也具备了新的内容。在具体制度设计中,体现算法正义的自动驾驶责任体系呈现为“一元两级”的宏观架构。

“一元”指的是,自动驾驶责任体系追求一个统一的目标,即由自动驾驶算法决策替代人类决策,以更为安全和合乎道德的方式完成驾驶任务。自动驾驶汽车产品标准的制定、政府监管和法院对交通事故的裁决都是为了让算法更好地运行。“两级”包含着法律责任的教义学体系和向算法正义开放的动态责任体系两个层级。

第一级责任包含着与法律制度体系相容的各类法律责任。驾驶与交通是社会生活的组成部分,自动驾驶实践需要保持与社会生活的整体一致性,这意味着具体责任设计要符合社会经验,也应当保持一定的限度,比如不能要求开发算法的程序员二十四小时监测算法的运行状况,车主不能以自己并非驾驶者为由而拒绝赔偿等。这种责任可以称为教义学责任。

第二级责任体现在,人机协作模式下的算法决策被嵌入到法律责任体系之中,这推动了责任形态的动态调整和不断开放。碰撞情形的不可避免性和事故数据的不断更新迭代,使得法律责任体系需要不断回应算法技术所产生的现实张力,最大化最小值算法主要是在第二级责任层次上为法律责任的认定和归结提供技术和规范双重意义上的化解方案。这种责任可以称为证成性责任(justificatory responsibility)。

需要注意的是,这两级责任并非以并列的方式存在,而是相互渗透和融合,共同支撑起动态的自动驾驶法律责任体系。

(二)自动驾驶的教义学责任形态

基于人机协作的决策属性,交通行为不再是个体可控的意志行为,而是一种包含着集体意向的算法决策。在这种智能化决策网络中,对某一主体的责任认定不应是分离的。交通出行领域的传统法律责任划分相对清晰,《中华人民共和国道路交通安全法》和《中华人民共和国刑法》等对交通事故的责任分配或肇事者的刑事责任作出了清楚界定。汽车所有人或者管理人的过错是交通责任认定的主要依据,相关主体的注意义务或事故的因果关系是判断刑事责任的主要依据。29然而,当人机协作参与到交通出行中,驾驶者成为一个享受驾驶益处但分离于驾驶过程的旁观者,那么对驾驶者(本质上是乘客)的责任认定就是一个全新的问题,注意义务或因果关系等概念的传统内涵无法直接适用于自动驾驶。例如,自动驾驶算法的设计者、粗心大意的司机(乘客)和误入车道的自行车赛手之间存在着跨越时空的技术关联,这是集体能动性的体现。传统责任划分的部门法界限失去了指导意义,厘清各种责任之间的边界具有一定的难度,但从教义学视角划分法律责任仍是有意义的。

第一,传统意义上公法和私法、侵权责任和刑事责任的划分具有高度的教义学稳定性,对于保障汽车质量和道路安全具有重要意义。汽车的智能化几乎完全重构了交通的社会意义,显著改变了法律责任划分的社会道德基础,也冲击了不同部门法之间的明确界限。教义学视角可以更好地促进部门法视角的转型,从而更好地应对智能时代的法律挑战。例如在行政责任方面,政府承担着把控汽车质量、维护道路交通和落实安全驾驶等责任。在自动驾驶时代,政府的监管责任将围绕自动驾驶算法的可行性而展开。自动驾驶汽车的标准和政策通常反映了一个国家对汽车智能化的产业布局与民众对自动驾驶汽车的接受程度,自动驾驶算法通过自我学习可以提升决策能力和水准,也能在法律规制的制度压力之下进行动态调整。政府的任务更为立体,其应当以更为积极的姿态提升智能科技的社会化层次和动态适应性,因为“多变的交通场景、开放的网络与数据环境以及算法自动决策因素决定了智能网联汽车的技术标准呈现动态的、过程性的特点”。30政府监管也应当包含强制性入市测试、数据可控和无过错赔付机制等事前、事中和事后监管多个维度。31

第二,对自动驾驶的教义学责任进行划分,可以展现证成性责任与教义学责任的互动空间,从而促进法律责任体系的完善。一方面,智能汽车不能承担法律责任,这会给复杂责任的分配带来困难,比如汽车在极端恶劣的天气中造成乘客死亡。另一方面,汽车故障和事故的归因常常会因为算法决策过程的复杂性和不透明而被切断。这些问题的存在恰恰反映了教义学责任的局限,体现出在人机协作框架中分析证成性责任的重要性。

自动驾驶算法的运行是对驾驶全过程的高度复杂化运算的结果,算法的失误当然与汽车性能和算法设计相关,但不能由此教条地推断出汽车制造商和算法设计者违反了注意义务,更不能轻易地对这些主体的失误定罪量刑,比如让算法设计者为事故中的乘客或行人伤亡承担刑事责任。交通事故的法律责任划分,需要向证成性责任开放,最大化最小值算法的嵌入将自动驾驶事务纳入一种新的规范性语境中。界定算法设计者的编程(特别是应对事故的编程)责任和乘客作为所有者的责任,需要综合几个因素,其中包括人机协作对人的主观状态的冲击、算法维护与算法自主运行之间的张力、最大化最小值算法应用的灵活性等。

基于上述两个理由,确立和归结自动驾驶的教义学责任应当遵循稳定性与动态性相结合的原则。由于教义学责任体系庞杂,此处仅提炼这一原则的法理内涵。

首先,应当基于算法正义进行教义学责任的体系性协调。算法带来了社会协作的深化和社会生活的智能化,在某种程度上也体现了人类通过科技和法律进行互惠合作的前景,强化算法的社会功能和科技活力的释放应该并行不悖。在这个意义上,我们应改变刑事责任体系,在各方主体尽到充分注意的情况下,以更为多元的方式应对风险,强化事后救济,减少过重的刑事追责。自动驾驶的风险不同于智能技术在人脸识别、信息收集等领域的风险,后者具有高度不可控性,一旦发生风险,后果难以预估。自动驾驶风险具有可控性,而且也应当容纳一定的风险。32

其次,保持教义学责任内涵的稳定性,但向证成性责任开放。责任内涵的稳定性和延续性是维持自动驾驶之社会功能的重要途径,智能技术的巨大冲击力需要在法律责任体系的统一性和社会生活的连续性之间得以适当化解,比如以严格的监管和产品责任体系避免汽车产业唯利是图。然而,自动驾驶汽车产业将人机协作社会模式嵌入到社会生活结构后,责任的人格属性和归责的因果链条打上了机器理性的烙印,构成教义学责任的质料也应动态调整。例如,算法设计者的编程过失不能仅依赖于对设计者主观状态的判断。如果设计者恶意修改某一段程序,导致汽车碰撞,这与传统故意伤害罪并无二致。但如果设计者基于计算失误或错误地置入刹车程序而致使汽车误闯红灯或者撞伤路人,对设计者的责任认定不能完全基于其主观状态,也要考量算法在道路测试中的成效、算法自身的纠错能力、特定计算程序与其他技术协作的效率等因素。虽然设计者最终仍然可能基于其过失而承担侵权或刑事责任,但这个归责过程体现了法律理性与技术理性的结合,以克服实践难题,因为绝对安全的自动驾驶技术是无法实现的。33

最后,教义学责任体系的动态性还体现在,教义学责任应当以渐进方式吸纳碰撞情形中的证成性责任。在不可避免的碰撞事故中,责任分配不同于自动驾驶常态中的责任分配。算法设计者和车主都有法律责任保障汽车安全行驶,但同时也要面对碰撞发生的可能性。一旦发生碰撞,法律责任体系将以动态方式转化为分析碰撞过程、检验算法决策过程和分配碰撞责任的机制,这个转化过程需要教义学责任和证成性责任的有效衔接。由于发生碰撞是偶发事件,最大化最小值算法的运行却是一种技术上的必然,因此,相关主体需要承担的两种责任形态的转化应该保持制度上的连贯性。例如,某种品牌的汽车在碰撞事故中按照最大化最小值算法执行,造成乘客或者行人的伤亡,除了分配事故责任之外,也应当基于事故数据调整常态的教义学责任体系,这在一定程度上也减轻了碰撞情形中的归责压力。

四、自动驾驶的证成性责任

自动驾驶责任法理的真正挑战在于如何应对不可避免的碰撞。根据前文的讨论,最大化最小值算法是应对碰撞的最佳技术方案,同时也是体现算法正义的社会决策。但这一算法的执行不是在真空中发生的,而是需要落实在具体的法律制度和责任体系中。如果不能破解碰撞中的责任归属难题,则自动驾驶汽车就失去了成为现实的可能性。汽车生产者、算法设计者、车主、其他道路使用者等在碰撞情形中的责任是典型的证成性责任,其责任基础在于参与人机协作的各方主体共同接受一种使最小损失者的利益最大化的碰撞方案。碰撞的发生是基于预先设计的碰撞算法,虽然产生了损害,但碰撞决策是符合机器道德的。问题在于,参与决策的各方主体应该承担何种法律责任?

(一)基于最大化最小值算法的法律责任设计

解决碰撞情形下的证成性责任难题,需要以最大化最小值算法的技术逻辑和建构性道德意义为出发点,充分展示机器道德实践中道德责任和法律责任的融合,在此基础上确立符合算法正义的自动驾驶法律责任体系。

首先,生命安全保障的价值追求应当贯彻在自动驾驶算法设计和应用的全部环节之中,但算法主导的驾驶过程中的价值状态与司机主导的驾驶过程中的价值状态有所不同。一旦出现不可避免的碰撞情形,最大化最小值算法将驾驶语境瞬时转化为由算法进行道德决策的计算化语境,其结果是基于保护最小损失者的利益而分配损害。这个转化所引发的责任问题不在于谁应该为最终的损害负责,而是最大化最小值算法是否以合乎道德和正义的方式进行决策。人们可能会误认为这种思路是将生杀予夺的大权交给冷冰冰的代码和程序,然而这恰恰是人机协作对人类未来的智能化所作出的贡献。

其次,碰撞的可计算性使得法律责任的基础和内涵都发生了变化,责任的证成性体现为法律责任与道德责任的融合,以及机器道德的嵌入性。在不可避免的各种碰撞场景中,由于碰撞的损害结果是执行最大化最小值算法的正义方案而产生的,各方主体进入到一种“技术上的必然抉择”。由此产生的道德责任也不同于常态社会互动下不得互相伤害的道德责任,这种责任并不体现不能对人造成伤害的道义论约束,而是基于严格的技术研发、充分的智能辅助、动态的政府监管和充分的公众参与而形成的深度协作要求。相比于避免事故损伤的目标,最大化最小值算法的实际应用对社会协作提出了更高的道德要求。法律责任也相应地转化为保障机器道德的规范要求,即在社会合作转化为机器指令的过程中,各方所应承担的具体责任,比如汽车生产者以适应算法运行的方式打造零部件,算法设计者准确地设计计算程序,政府部门建造智能化的道路基础设施。碰撞算法的设计不仅意味着通过技术手段防范风险和损害,而且还以法律形式保障自动驾驶算法运行的人机协作环境和技术支持。

最后,最大化最小值算法的运行产生了新兴法益和责任归属关系。传统驾驶实践的法益在于交通安全,自动驾驶既要追求交通安全,也要追求机器决策的可控性。最大化最小值算法以安全为首要价值追求,但同时也包含着在碰撞中执行道德指令的决策机制。碰撞中的法益并不体现在人的生命或财产不可受损,而是体现在算法要以正义和合理的方式对待碰撞中的每个个体。另外,参与各方在碰撞中形成了基于算法决策的道德关联,相应地产生了各种形式的法律责任。

最大化最小值算法有助于帮助我们重新理解交通出行中的侵权责任与刑事责任。当前的研究通常都是分别针对这两种责任形态进行探讨的,从而忽视了两种责任高度融合的潜力。由于驾驶过程的完全智能化和驾驶决策的人机互动性,侵权法和刑法实践中的传统概念需要被赋予技术属性,比如算法失灵导致的产品质量瑕疵。汽车刹车失灵或者轮胎故障是很容易判断的产品瑕疵,但算法失灵却是一种非常新颖的计算故障,可以体现为程序员植入错误的代码、计算程序紊乱、算法与传感冲突(比如错将车身上的广告画当作真实动物)等多种形式。不论这些故障是否造成实际的事故,我们都很难断定这些可能发生的故障是否应被允许,谁应该为算法失灵负责,以及应当承担的是侵权责任还是刑事责任。

(二)刑事责任认定

在碰撞发生后,对汽车生产商或者车主进行刑事追责并无意义。按照达夫的主张,对某一行为的定罪体现了对罪错的权威性和共同的谴责。34最大化最小值算法的执行不会产生社会谴责的情感空间,也缺乏刑事追责的人格载体。

首先,通过刑法的惩罚措施对经过预先计算的可预见的风险进行防范并无充分的法益基础。35更合理和务实的方案是事后救济,特别是完善事故保险机制,或者实施人工智能储备金制度。36有学者认为,应当“基于自动驾驶整体在安全性与社会利益方面的巨大技术优势而容忍极端情况下的低概率的技术边界问题及两难困境下的无法避免的损害”。37这并不意味着免除了汽车生产者和算法设计者在事故发生上的法律责任,而是强化了他们在将交通事故纳入计算社会网络中的独特角色,其中包含着对每一种可能的碰撞情形的充分伦理评估,对碰撞之损害救济的完善机制的构建,以及在每个具体个案中如何释放出算法决策最优化和公平分配法律责任的理想方案。

在传统驾驶实践中,安全意识的提升和碰撞事故的减少需要驾驶员的严格训练和持续的社会动员。而在智能驾驶时代,这一任务将由算法完成。立法决策者的主要任务就转变成规范自动驾驶技术的研发,提升自动驾驶的人机信任,以及在碰撞事故中确立符合算法正义的损害救济方案。

其次,自动驾驶汽车在行驶过程中存在着潜在干扰因素,可能会触发碰撞算法的执行,比如疲劳驾驶的大卡车司机、闯入道路的行人等。最大化最小值算法的实施不具有可责性,但司机和行人造成了算法执行的后果,应当承担刑事责任。

最后,自动驾驶算法的设计并非一项简单的工程,需要汽车生产者、程序设计者、数据分析方和交通部门共同参与到算法研发、标准设立和实施保障的系统工程中,并创造出新的社会价值空间和法益。如果汽车生产者为了吸引顾客,刻意在碰撞算法设计中向乘客过度倾斜,则破坏了算法运行的公平性。尽管从传统社会经验来说,汽车生产者应该追求购车者的最大利益,但在自动驾驶时代,算法公平嵌入到交通实践中,汽车的终极价值追求不是绝对保护乘客,而是预防事故的发生,并在碰撞不可避免的情况下作出符合算法正义的抉择。

(三)民事责任认定

在民事责任方面,最大化最小值算法的影响可以体现为两个方面。

一方面,民事责任的社会基础具有人本性和技术性两个维度。算法技术虽然替代了人类决策,但并未取代人的主体地位,民事责任的设计仍然要体现人本性。汽车生产者、软件服务商、车主和保险公司等各方所形成的民事法律关系不仅体现了平等主体之间的尊重,也承载着在智能时代共担科技风险、创造算法正义得以实现之公平环境的共同使命。

另一方面,民事责任体系特别是侵权责任体系的设计,应当在最大化最小值算法运行逻辑的基础上有机融合教义学责任和证成性责任。例如,过错责任是侵权责任的主要类型,在自动驾驶汽车所造成的损害责任中,严格责任将替代过错责任成为主流。比如算法失灵导致汽车撞向路边,则算法设计者应当为损失承担责任。但在执行最大化最小值算法所导致的碰撞事故中,严格责任和过错责任的传统二元划分难以应对这种新情形,不妨采用理性机器人标准化解这一难题。38如果在碰撞中,汽车根据最大化最小值算法作出了碰撞选择,则算法决策符合理性机器人标准,由此造成的损失属于人机协作为追求正义而付出的必要代价。对算法设计者或车主进行追责的基础不在于这些主体的过错或严格责任,而在于算法替代人类决策之风险的公平分配。

(四)最大化最小值算法的实践应用

目前,自动驾驶汽车的研发和测试正处于政策调试阶段,即通过技术开发和政策激励并举,为自动驾驶汽车上路做预备工作。39国内自动驾驶汽车行业的领头企业如百度Apollo、小马智行和文远知行等在经历行业的资本喧嚣后,已将研发重点放在提升自动驾驶的技术可行性之上。从我国相关政府部门的政策导向来看,自动驾驶汽车的全面合法化仍未列上日程,但政策环境将越来越宽松,在智能经济引擎的驱动之下,自动驾驶汽车上路指日可待。然而,如果自动驾驶的伦理和法律挑战没有化解,实现这个目标仍会遇到阻碍。根据当前行业发展动态和研究现状,探究自动驾驶的算法正义和法律责任体系具有以下三方面的意义:

第一,为自动驾驶立法提供理论动力。

自动驾驶对既有法律制度的冲击是巨大的,自动驾驶立法也面临诸多难题。40《道路交通安全法》首先需要修改,《民法典》和《刑法》关于汽车侵权和交通犯罪的内容也需要重构。鉴于学界对自动驾驶法律责任的研究愈发深入,我国应当通过立法开放更多的道路测试,特别是高速公路测试,为自动驾驶算法的优化和驾驶数据的积累提供制度支持。41除此之外,关于汽车质量标准、道路标准、汽车数据和商业保险的相关配套规范也应及时更新,与汽车质量监管相关的立法可以伴随着自动驾驶汽车行业成熟、汽车智能层次的迭代而渐进式进行。42但对于责任分配的法理难题亟需在当下作出回应,以推动更全面的立法开展。

第二,为自动驾驶汽车行业的技术研发和场景测试提供理论指导。

百度Apollo和文远知行等知名车企在北京和广州等城市已经获得多张无人化道路测试牌照,二者也拥有在美国加利福尼亚州进行道路测试的牌照。毫无疑问,算法研发与道路测试相结合可以大大提升技术可行性。然而,自动驾驶技术的进展仍面对很多掣肘。一方面,“工欲善其事,必先利其器”,道路测试是一种“理想化”测试,以零事故为追求,成熟的自动驾驶算法需要具备应对碰撞情境的决策方案,但道路测试并不具备这种训练条件。另一方面,成熟的自动驾驶算法应当包含应对碰撞的决策模型。但根据相关讨论,这种模型预设着特定的伦理和法律立场,自动驾驶汽车企业作为行业利益主体,并不是决定算法之道德立场和法律责任形态的适格主体。43最大化最小值算法及其相应的责任分配可以为汽车影像识别、感知和决策算法群的协调方案提供伦理引导,并为仿真道路测试的场景建构增加伦理分量。

第三,为公众参与和享受科技成果奠定社会基础。

社会公众是智能革命的直接受益者,但由于自动驾驶技术过于前沿,以及特斯拉和蔚来等装载辅助自动驾驶技术的汽车发生的事故,公众对3级以上自动驾驶汽车的安全性充满疑虑。通过展现自动驾驶汽车的安全保障和在碰撞情形中的决策逻辑,可以部分消除公众疑虑。伯格曼等研究者认为,可以通过获取公众对碰撞算法之道德选择的共识而优化算法的设计。44倡导最大化最小值算法,有助于在立法者、社会公众和汽车行业之间打造一种畅通的对话和审议机制,建立公众信任,通过公众参与来促进负责任的算法研发和测试。

结 语

作为人工智能实践应用的极致,自动驾驶将带来一场技术革命,包括重构交通运输模式和人类出行方式,同时也引发各个层面的巨大挑战。回应自动驾驶引发的社会、伦理和法律挑战,需要以自动驾驶算法的设计为核心而展开。道德和法律实践以正义为追求,算法正义因而成为自动驾驶算法设计的首要伦理准则和价值追求。自动驾驶算法的道德基础、决策结构和法律责任应对等需要在算法正义的框架中进行理论建构,而碰撞情境是展现这些任务的试验田。如果自动驾驶算法无法克服碰撞难题,那么自动驾驶汽车就不具备实践可行性。在众多理论模型中,最大化最小值算法具有应对碰撞难题的更好的理论力量,也能够弥合自动驾驶伦理争议与法律责任之间存在的鸿沟。从自动驾驶算法设计到自动驾驶汽车上路,仍然需要经过大量的技术升级、道路测试和政策评估,这条路可能会比较漫长。除了攻克技术难关,自动驾驶的正义和责任难题是亟需回应的核心议题。基于对算法正义的追求,以一种反思平衡模式下的最大化最小值算法重构道德和法律实践,是迎接智能社会的应有姿态。

来源:法制与社会发展2022,28(04)

文献数据中心|DATA CENTER

© 2009-2024 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc