摘要:正当程序原则传统的个体防御功能在自动化行政中产生“法律—技术”张力。实践中表现为具有普遍适用性的自动化系统与个体防御程序难以共存,导致专家系统消解个体防御程序、机器学习系统欲保障个体防御程序需放弃自动化系统。深层原因是既有法规范将采用自动化系统视为行政裁量,使得以个体防御为目的的行政程序法只能问责行政,而无法问责自动化系统。对此,正当程序原则有必要从“行政权力—公民权利”双方调整结构转向“行政权力—算法权力—公民权利”三方调整结构,发挥个体防御与集体受益的利益权衡功能,通过“为行政程序增添技术翻译”与“为技术效果赋予行政意涵”来适应技术应用。为重构正当程序原则,在程序正义上,应用技术正当折抵、强化与再造程序正当,实现替代正义、优势正义与未来正义;在行政程序上,应增设算法规则适用的转译程序、自动化决策与人工决策的比较程序,以及自动化系统纠错的更新程序,作为数字时代的程序正当新要件。
关键词:正当程序原则;自动化行政;程序正义;利益权衡功能;技术正当
01
数字法治政府建设背景下,自动化行政飞速发展,覆盖交警非现场执法、政务服务秒批、福利津贴免申即享、自动化公共信用评分等多领域行政活动。其在带来巨大效益的同时,也对传统行政法理论与实践产生挑战。自动化行政指向“人工智能在行政领域中的具体运用,行政程序中特定环节或所有环节由人工智能代为处理,而无需人工的个别介入,从而实现部分或全部无人化的行政活动”。其适用的人工智能系统主要包括专家系统与机器学习系统。二者虽对行政事实程序造成不同影响,但都冲击了正当程序在规范上的适用语境与功能作用。正当程序原则在程序设置与正义实现上,亟需适应数字技术的发展。
既有研究讨论数字时代正当程序时,常以程序要件为锚点,呈现自动化行政中正当程序“小修小补”与“全新建构”的两个面向:其一,正当程序虽因自动化技术功能受限,但只需进行小修小补,对既有行政程序予以免除或延展。前者如《德国联邦行政程序法》第28、39条中免除自动化行政的听证和说明理由程序等。后者如要求在行政公开之外,增加源代码公开;在行政说明理由之外,增加算法解释等。其二,正当程序无法应对自动化技术,需从根本上改造行政程序功能,予以全新建构。这既包括增设超出传统程序功能的程序机制,如算法影响评估、人工决策基准等自动化系统监督机制,也包括增设彰显实体功能的自动化系统筛选机制,如自动化技术应用的民主评价程序,只在产生积极效果时采用自动化技术,反之拒绝。这些研究结合了算法问责、信息与行动赋能、主观程序正义等理论,将有利于保障自动化行政正当性的事项纳入正当程序,为正当程序原则的发展奠定了深刻基础。
然而,既有研究不专门谈论正当程序原则,具有泛化正当程序的趋势,以至于与程序相关的内容,都可被归入正当程序。厘清正当程序原则在自动化行政中的适用至关重要。一方面,正当程序原则有其适用逻辑与边界,需明确功能定位,防止正当程序原则被掏空与泛化。另一方面,正当程序原则的程序正义与具体程序可随时代发展,以回应自动化行政的正当性需求。鉴于此,本文在认同自动化行政应当“既借助技术手段又纳入法治的框架之内”的前提下,探究正当程序原则的重构。首先,梳理正当程序原则的历史发展脉络,解释其传统个体防御功能在自动化行政中遭遇的“法律—技术”张力。其次,分析自动化行政中权力与权利之间形成的新结构,主张变革正当程序原则的功能,以适应技术的发展。最后,基于对技术的适应而非对抗,论证正当程序原则的重构表现为程序正义的提升与行政程序的增设。
02
正当程序原则具有帮助公民个体防御公权力不当行使的传统功能。但该功能下的行政程序呈现权力控制与权利保护的个体性方式,与自动化行政中涌现的算法规则普遍适用不匹配,从而在个体防御程序与自动化行政之间产生“法律—技术”张力。
(一)正当程序原则的传统功能:个体防御
正当程序原则在发展演进中,以个体防御功能贯穿始终。在规范表达上,虽然1215年英国《自由大宪章》最先体现正当程序思想,但正当程序在成文法中的出现,最早需溯及1354年英国爱德华三世时期的议会立法。在英国,先后形成了两种正当程序观念:一是令状程序的代名词,个体不经过令状程序,不得向国王告发他人或请求对他人予以不当压制;二是源于自然权利、主权与宽容的现代审判程序,非经对抗式审判程序,不得剥夺他人的自由,具有消极防御他人不干预的权利保护内涵。第二种观念对后世影响更大,对应衡平法中的自然正义原则,凸显权利主体的个体防御性,成为正当程序原则的雏形。受自然正义原则的影响,美国宪法第五修正案规定:“不经正当法律程序,不得被剥夺生命、自由或财产”,确立了正当程序原则的宪法依据。
在内涵发展上,正当程序原则凸显公民个体防御公权力的功能。虽有实体性正当程序与程序性正当程序,但由于实体性正当程序涉及立法是否违宪的问题,故谈及正当程序原则主要指程序性正当程序。亦即,在默认公民生命、自由、财产等权利可基于公共福利等受限的前提下,讨论何种程序是正当的。基于司法适用,正当程序原则形成了核心要素:“(1)告知相对一方有关的事实和权利;(2)为相对一方提供有效的听证机会;(3)主持程序活动的决定者必须是独立的。”由此确立的告知、听证、中立裁判等程序,赋予了个体防御公权力不当限制自身生命、自由、财产等权利的力量。
在原则适用上,里程碑式的司法案例均强调正当程序的个体防御功能。美国Goldberg v. Kelly案扩张了正当程序的权利保护范围,提出在终止经济援助福利之前,公平的事前证据听证会才符合正当程序要求。Mathews v. Eldridge案确立了判断程序正当的“成本—效益”分析标准,通过对私人利益受行政活动的影响程度、现有程序的可靠性与额外程序保障的可能价值,以及额外程序保障的行政负担与社会费用加以比较,来判断听证等程序是否为保护个体权益所必要的程序。在我国,以“田永案”为正当程序原则的适用范例,在该案中法院提出“从充分保障当事人权益的原则出发,作出处理决定的单位应当将该处理决定直接向被处理者本人宣布、送达,允许被处理者本人提出申辩意见”。后续“刘燕文案”、“张成银案” 等,进一步巩固正当程序原则适用于个体防御行政权不当行使的情境,并传达了正当程序原则通过对抗公权力以保护公民个体权益的理念。
以上是正当程序原则在人工决策中的适用。进入自动化决策后,正当程序原则的个体防御功能在实践中就产生了“法律—技术”张力。
(二)个体防御程序与自动化行政之间的实践张力
公共行政实践应用的自动化系统大体分为两类:一类是“基于规则的系统”(rules-based systems),即明确了输入与输出内容的‘专家系统’。其自上而下地构建相关规则,具有透明性,使用者可通过一系列“如果—那么”(if-then)规则来操控系统。另一类是“机器学习”(machine learning),即由数据自下而上驱动的数学模型算法,包括由大量连接层组成的深度学习模式。不同的自动化系统对公共行政的影响不同,对程序的冲击也不同。由于个体防御程序与自动化系统不具有共存的客观事实,大量自动化行政活动难以发挥正当程序原则的传统功能。
1.专家系统消解个体防御程序
专家系统依赖既定的规则,让旨在应对多变灵活的数据和事件的人工智能异常脆弱,任何细微的改变,都需要重写整个系统。反过来说,正是以既定规则为基础,专家系统才得以适用,并通过消解个体防御程序,而呈现高度自动化,乃至全自动化。
我国在税收和特定审批领域的高度自动化即是如此。税务机关利用网上办税系统,按税种将系列报表以及财务报表模块化,实现网上办税流程的自动化。申报、纳税、扣缴等流程的沟通交流机制,从传统人工介入方式变为数据跑路的自动化方式,压缩了告知、说理、听证等个体防御程序的空间。行政“秒批”也是如此。行政主体事先根据审批条件和流程设定自动化程序,申请人提交申请后,系统通过数据库自动比对以及核验材料,无人工干预地瞬时完成审批并反馈结果至申请人。其自动化程序是既定的,并不存在个体异议、听证等程序的适用空间。之所以如此,是因为这些领域的行政规则高度稳定,满足硬性条件即可得出确定结果。除非系统故障或既定规则不当,否则,客观上不会对相对人权益造成不利影响。甚至可基于自动化方式比人工方式更有利于提高效率、减少错误,而主动免除个体防御程序,《德国联邦行政程序法》即规定自动化设备作出行政行为时免除听证和说理程序。
对于专家系统消解个体防御程序引发的争议,可从司法实践予以观察。针对采用专家系统的自动化行政,司法争议焦点在于行政机关对自动化工具的使用是否合理。例如,何某诉上海市公安局黄浦分局交通警察支队交通行政处罚案,争议焦点是电子声呐抓取的证据是否可靠,以及行政处罚能否适用简易程序。该自动化设备仅作为执法工具使用,不影响既有的个体防御程序,也没有超出《中华人民共和国行政处罚法》(以下简称“《行政处罚法》”)的调整范围,仍属于传统行政争议。又如,田志鹏诉陕西省西安市公安局站前分局行政处罚纠纷案,涉及行政处罚应用罚款自助缴纳系统,改变个体防御程序履行形式的情形。原本行政处罚中对相对人的告知程序,转变为罚款自助缴纳系统流程的运行,即在处理大厅公示违法处理流程,张贴法律文书补打流程告知以及相关操作说明。这只是告知程序的形式改变而已,只针对适用简易程序处罚的情形。法官在裁判说理中,也强调自动化系统应遵循程序法定原则,暂时不宜适用于行政处罚的一般程序。通过将自动化系统限定在辅助角色上,一定程度上回避了自动化系统冲击个体防御程序的争议。
2.机器学习系统依赖人工干预
机器学习系统有助于节省人力,但若无人工介入,又难以保障技术正当。一方面,机器学习系统依赖数据驱动与算法公式,在计算过程中可能出现本该排除却纳入统计的假阳性数值,以及本该纳入统计却予以排除的假阴性数值,影响最终结果的准确性。例如,美国密歇根州失业救济署采用“密歇根综合数据自动化系统”(Michigan Data Automation System, MiDAS),来识别欺诈性就业申请。但基于MiDAS自身在数据处理与数学公式上的不准确,90%的欺诈判定都不准确。另一方面,当机器学习系统涉及决策时,需要人类意志。例如,美国社会保障局采用的“快速残疾确定”(Quick Disability Determination, QDD)系统,通过建立模型,使用关于病史、治疗方案、医疗症状等信息来预测容易获得拨款的情形,构成残疾补助规则确定的初始决策。其需要人工审查QDD系统的决策结果,否则残疾补助决定可能构成“机器裁决”,引发质疑。
而对人工干预的依赖也贯穿于司法实践。针对采用机器学习系统的自动化行政,司法争议焦点大多在于是否违反正当程序原则。例如,美国休斯顿独立学区利用“教师绩效评估系统”(Educational Value-Added Assessment System, EVAAS)为教师评分,作为是否继续聘用教师的决策依据,引发诉讼。EVAAS对教师造成无法继续聘用的利益损害结果之前,既没有通知教师,也没有为教师提供足以质疑该系统运行准确性的渠道。法院虽判决EVAAS的应用违反程序性正当程序,但为了保护商业秘密,无法向被解雇教师解释绩效评分的计算及其准确性,只能退出该自动化系统的应用。这意味着,为保护公民个体权利而适用正当程序原则,只能通过退出自动化系统,回归人工决策。即便实质性影响决策结果的自动化系统违反了传统正当程序原则,司法也难以兼顾个体防御程序功能与自动化系统适用。
综上,个体防御程序与自动化行政之间的实践张力表现为:发挥个体防御程序功能,就不能完全适用自动化系统;适用自动化系统,就需要退回人工决策才能保障个体防御程序。这些实践张力的背后是正当程序原则在自动化行政中面临的深层规范张力。
(三)个体防御程序与自动化行政之间的规范张力
既有行政程序法规范适用于自动化系统时,默认自动化系统的采用属于行政裁量事项,并在选择自动化系统的程序与问责自动化系统的程序之间产生错位:在选择自动化系统上,规定自动化系统应用的事前程序,欠缺个体防御功能;在问责自动化系统上,仍依赖个体防御程序的问责机制。问题是个体防御程序只能问责行政,而不能问责自动化系统。个体防御功能下的程序法问责机制对自动化系统是失效的。
1.采用自动化系统被视为行政裁量权行使
既有行政法规范将自动化系统的采用视为行政行为形式或方式的选择,并不认为自动化系统可能立法。相关规定隐藏于我国各个单行法规范之中。从类型划分来说,两类自动化系统都无需法律授权,而由行政机关自主选择使用。
其一,自动化系统作为基于规则的系统,辅助行政的情形。《行政处罚法》第41条第1款规定:“行政机关依照法律、行政法规规定利用电子技术监控设备收集、固定违法事实的,应当经过法制和技术审核,确保电子技术监控设备符合标准、设置合理、标志明显,设置地点应当向社会公布。”这里的“依据法律、行政法规规定”并非指电子技术监控设备的使用需要法律授权,而是指电子技术监控设备的使用需要遵循其他的法律要求。类似的立法还有《上海市非机动车安全管理条例》第46条,该条规定:“公安机关依法通过电子技术设备,收集、固定非机动车道路交通违法行为的证据的,其固定式电子技术设备设置地点应当向社会公布。”更显著的是《吉林省公路条例》第63条,该条规定:“交通运输主管部门可以在公路的重要路段和节点设置电子技术监控设备,在确保电子技术监控设备符合标准、设置合理、标志明显并向社会公示的前提下,通过信息化手段,收集、固定违法事实作为行政处罚证据。”可见,交通运输主管部门可以选择是否设置电子技术监控设备。电子技术监控设备属于行政辅助工具。对它的使用,是行政机关对电子化形式或方式的选择,可视为行政裁量。
其二,自动化系统作为机器学习系统,由数据驱动来评估预测、进行决策的情形。《中华人民共和国个人信息保护法》(以下简称“《个人信息保护法》”)第73条将“自动化决策”界定为“通过计算机程序自动分析、评估个人的行为习惯、兴趣爱好或者经济、健康、信用状况等,并进行决策的活动。”根据《个人信息保护法》中其他涉及自动化决策的条款来看,国家行政机关利用个人信息作出自动化决策的情形,并不需要法律授权,而是拥有自主裁量权,自行决定是否要选择自动化方式进行决策。美国法中,自动化系统的适用是否构成行政裁量的问题更突出。诸多司法案例涉及自动化行政的合理性问题。例如,在休斯顿独立学区案中,对于学区利用自动化系统输出教师评分结果,并据此作出教师聘用决定,司法审查予以尊重,认为只要自动化系统所建构的教师评分模型与继续聘用决定之间具有一定的相关性,即便可信度不是百分之百,也是合理的。这表明,行政机关对选择自动化决策具有的裁量空间,受到法院的尊重。
2.自动化系统程序欠缺个体防御性
行政自动化方式为行政效益带来巨大增量,行政机关会偏好自动化决策。但自动化决策对公民权益的影响复杂,我国现有法规范通过控制程序裁量,来防止公民权益遭遇技术冲击。由于尊重行政裁量,即便行政机关作出自动化决策,也无法从实体内容上对其施加约束。对自动化行政中裁量权行使可能带来的权力滥用和技术缺陷等问题,仍主要采用程序控制路径,而且是除了人工决策过程之外的其他程序。如《行政处罚法》规定对电子技术设备的利用,一方面需要法制和技术审核,确保电子技术监控设备符合标准、设置合理、标志明显,另一方面设置地点应当向社会公布。《个人信息保护法》第55条规定了个人信息处理者的事前个人信息影响评估。《个人信息保护法》第24条既要求自动化决策的透明度和结果公平、公正,个人信息处理者对自动化决策方式对个人权益造成的重大影响决定予以说明;又强调个人对自动化决策的拒绝权,从而开启从自动化决策退回人工决策的程序。
然而,上述自动化系统技术性审核程序、个人信息影响评估程序、个人拒绝自动化系统的程序都是行政部署自动化系统之前的程序考量,是针对普遍适用行政规则之前的程序控制,并不具有个体防御功能。甚至自动化系统的技术性审核和个人信息影响评估程序,都不具有个体性特征。而个人拒绝自动化系统的程序,即便具有个体性特征,也难以实现自动化系统适用时的个体防御功能。因为个人权益保障无法与对个体适用自动化系统共存。从“防御”并不是“拒绝”的角度来看,个体防御程序,如陈述申辩,只是提供对抗公权力不当行使的可能,并不意味着直接回避该公权力的行使。但个人拒绝自动化系统产生的是对该个人适用自动化系统的直接回避。在自动化系统对个体不予适用时,不会出现个体通过防御程序来纠正自动化系统不当的情形。另外,如果一个自动化系统在行政机关适用中,通过了事先审核、评估等程序,也并未被个人拒绝,却仍造成对公民权益的实际损害结果,还有正当程序原则的保障空间吗?就前述司法实践来看,为保护正当程序权利,只能退回人工决策。也就是说,在保留自动化系统适用的情况下,保障适用对象个体防御功能的程序法是失效的。
3.个体防御程序无法实现自动化系统问责
既有行政程序法通过个体防御程序问责行政机关,只要自动化系统的适用属于行政裁量,行政程序无论怎样约束行政裁量,都在问责行政,而无法问责自动化系统。行政程序法的程序功能,建立在人类交往理性的基础之上。无论是行政行为作出过程中所经历的程序,还是行政行为产生外部效果之前的沟通异议程序,抑或是行政行为产生外部效果之后的申诉救济程序,都以行政活动可理解、可解释为前提。在某种程度上,行政程序法是沟通法、互动法与解释法。行政机关不知道行政行为作出的原因和依据,或者承接外部效果的行政相对人无法理解行政行为的情形并不存在,至少在行政程序法的框架设置中,默认这些情形不存在。但这在自动化系统中失效了。“一方面,管理行政机关如何工作的法律体系是以透明度、问责制和给出理由为前提的。当行政机关采取影响权利的行动时,必须解释原因。另一方面,从结构上看,最先进的人工智能形式还不能完全解释。”具体来说,在专家系统中,尽管规则仍由行政机关制定,也可理解与可解释,但自动化程度越高,越会基于行政效率压缩沟通与解释空间,甚至不予解释或说明理由。在机器学习系统中,由于在规则的制定中嵌入技术模型,行政机关与公民都可能难以理解自动化行政规则,从而在自动化行政的可理解与可解释上陷入困境。
自动化系统的合理性取决于自然科学知识。在行政机关决定采用自动化系统之前,该系统本身已经形成了一套规则,比如计算机代码规则或者技术检测规则等。从事实角度来看,计算机代码规则或技术检测规则也会有自身形成与运行的程序,如数据收集程序、数据计算程序等。但这些技术事项并不具有法律意义,也就不属于行政程序法的调整对象。这意味着,自动化行政中虽同时介入了行政程序与技术事项,但技术事项被隐藏于行政程序之中,技术问责也就被隐身在行政问责之后。“如果不对现有的行政法理论进行重大调整,对纳入算法分析的机构决定的司法审查将不会产生系统的外部问责制。”
问题的关键不是行政机关不能代替自动化系统承担责任,而是行政机关即便承担了责任,也无法解决自动化系统自身的谬误,只能禁用自动化系统。这构成对自动化系统的消极对待,忽略了利用自动化系统的建设性价值,容易错失发展机遇。正确的应对是积极利用自动化系统,发掘程序在数字时代的新功能,展开技术问责下的程序法建构。这也是自动化行政中正当程序原则功能变革的方向。
03
正当程序原则的底层逻辑是通过权利保护约束权力行使,具有“权力—权利”的调整结构。鉴于“法律—技术”张力产生的核心原因是自动化行政在行政权力之外多出了算法权力,正当程序原则需转向“权力—权力—权利”的三方调整结构,变革程序功能以适应技术应用。
(一)正当程序原则在自动化行政中的功能变革
1.转向“权力—权力—权利”三方结构
在正当程序原则下,权力与权利之间的关系通过程序调整。既有行政程序是个体防御功能下正当程序原则的具体化,背后逻辑是行政权力个体性行使方式受到公民权利个体性保护方式的限制,呈现“行政权力—公民权利”的双方调整结构。工业化时代,公民权利一般指向生命、财产和自由等具有个体防御功能的既得权利。对公民既得权利施加限制的权力,在行政法中主要指向行政权力。在个体防御功能之下,行政权力限制主要是个案决定的个体性方式,经由个体性权利保护实现,即通过申诉、复议、诉讼等个体性问责方式排除行政权力的不当行使。故个体防御功能下“行政权力—公民权利”以双方对峙的程序形态呈现,集中表现为增加听证、说明理由、排除偏见等程序性保障在公民一端的砝码,使公民有力量来对抗行政权力的滥用或不当行使。
进入数字时代,自动化系统设计的算法规则具有了一种控制性和主导性的力量,构成算法权力。虽有学者提出,算法权力指向基于算法赋能政府公权力或平台企业私权力而形成的控制力、支配力和影响力,并不脱离传统权力的概念。但算法之所以赋能,是依靠一套不同于传统权力运行方式的算法规则,它改变了权力机制构造,产生了算法责任主体是谁的争论。鉴于此,算法权力有必要与行政权力相区分,厘清何种影响结果是传统行政权力运行带来的,可归责于行政主体;何种影响结果是算法规则运行带来的,可归责于算法主体。况且,算法权力会以数字技术来压缩、更改、变塑既有的法律规则和程序,仍保持个体防御程序功能下行政机关与公民二者之间的“权力—权利”关系,难免产生权力游离于规程之外的‘技术性逃逸’趋向。为此,需构建公民、行政机关与算法主体三者之间的“权力—权利”关系,并将正当程序原则转向“行政权力—算法权力—公民权利”的三方调整结构。
首先,公民权利和公权力的内容有所扩张。就公民权利而言,除了具有防御权功能的既得权利外,还有基于自动化系统带来社会福利所形成的积极权利,尤其是积极请求政府采用自动化系统、高效处理社会管理和公共服务事项的权利。就权力而言,行政机关自主作出行政活动的权力、自动化系统形成的算法权力,都会产生行政后果,均进入正当程序原则的调整范围。在权力影响上,自动化系统并非只产生风险与危害,还可为数字国家、数字社会和数字政府带来更大的经济效应与规模价值。故算法权力并不只对公民权利产生侵害,也可为公民权利带来增量,助力公民具有受益权功能的权利保障。
其次,公民权利与公权力的行使方式发生变化。基于算法规则的普遍适用,出于经济效益考量,不会对每一个体单独设置个性化的自动化决策,而是侧重于从集体性决策的角度,来行使算法权力。故自动化行政中的权力行使将主要表现为集体性方式,类似于通过制定统一的规则,普遍适用于不特定多数人。同时,公民权利保护尽管需要保留个体性方式,个体通过提出质疑、申诉、救济等渠道来问责算法权力与行政权力,但对公民具有受益权功能的权利,却难以只通过个体性问责与救济的方式来保护。对公民受益的保护更需要通过在算法规则制定过程中纳入实体利益权衡考量等集体性方式来实现。故自动化行政中的权利保护与权力行使,将以集体性方式为主,兼顾个体性方式。
最后,公民权利与公权力之间的关系得以改造。就“算法权力—行政权力”而言,自动化系统形成的算法权力,虽不是行政权力,但能够产生与行政权力相同或类似的效果。一般来说,算法权力主体与行政权力主体之间存在两种关系:一是算法权力主体被行政权力主体所监管与控制,算法权力发挥着准行政执行权的功能;二是算法权力主体与行政权力主体相互独立,至多是合作关系,不存在彼此控制,算法权力发挥着准行政立法权的功能。就“公民权利—公权力”而言,二者不一定是对抗的,还可能是福利供给与受领,或者数据提供与收集等互惠合作的关系。公权力行使与公民权利保护的关系调整,既防止公权力侵害个体权利,也要求公权力积极利用数字化红利,造福个体。故正当程序原则在自动化行政中只发挥个体防御功能是不足的,需要予以变革。
2.个体防御与集体受益的利益权衡功能
正当程序原则适用于算法权力主体,以自动化系统具有普遍效益价值为前提。但对集体有益,未必对个体也有益,甚至可能有害。正当程序原则面临着自动化系统的普遍适用价值与公民个体防御权及受益权保护价值之间的权衡,需发挥个体防御与集体受益的利益权衡功能。该功能主要体现为三个方面。
其一,兼顾程序的防御与受益功能。尽管我们警惕自动化系统的危害,但自动化系统的优势不可忽视,其不仅有助于提升行政效率,更能促使公民获得数字福利。所以,算法权力行使的程序调整有两个方面要求:一是不得肆意损害公民具有防御权功能的既得权利,要通过正当程序原则的程序设置来控制算法权力。该程序限制可源于法律规定,也可源于行政监管。二是积极促进公民享受数字时代的公共福利。这改变了正当程序调整目标,在公民防御公权力侵害之外,还增加公民从公权力行使中获益的情形。
其二,区分防御程序的个体性特征与受益程序的集体性特征。算法规则之所以适用于不特定多数人,原因是自动化系统一般能够为行政效益与社会效益带来增量,使多数人从中受益。反言之,保障受益的程序,通过自动化系统的部署与实施得以实现,从而具有集体性。那些质疑自动化系统的准确性和有效性的情形,一般只是对该个体放弃自动化系统,回归人工决策。通过在人工决策中适用正当程序实现个体性防御效果,但不禁止自动化系统对其他多数人的集体性适用,进一步佐证了防御程序的个体性。
其三,借助程序缓和个体防御与集体受益之间的张力。比如在自动化系统中,仍保留个别退回人工决策的程序,使那些对普遍适用自动化系统产生质疑的个体仍可适用个体防御程序来保障自身权益。同时,在退出自动化系统的人工决策中,赋予个体防御程序对自动化系统未来适用的影响效力。若人工决策中个体防御程序的适用能从侧面证明自动化系统准确性存疑,就要求自动化系统负担证成自身具有集体受益价值的程序义务,从而决定是否在未来禁止自动化系统或要求自动化系统迭代优化。为调和自动化系统的普遍适用价值与保留人工决策的个体决定价值所设置的程序,就具有了个体防御与集体受益的利益权衡功能。
(二)功能变革下法律适应技术的方式
“正当程序代表的价值观比具体程序更为持久。”反言之,具体程序可变。为实现个体防御与集体受益的利益权衡功能,正当程序原则需在法律世界与技术世界之间进行程序的转换与建构,以便法律适应技术。当法律与技术之间只是语言不通时,需为人工决策的行政程序附上技术解释与说明程序。当法律与技术之间呈现自动化系统对公民权益产生实质影响,却无法被行政权囊括的关系时,则需建构行政程序,为技术效果赋予行政意涵。如此,自动化系统带来的威胁与福利方可从技术规制视角进入法的内部视角,受到法律调整。
1.为行政程序增添技术翻译
当自动化系统对行政的影响只是从人工形式转向数字形式,书面形式转向电子形式时,算法不形成任何产生外部效应的权力,完全被行政权吸收。自动化系统基于效率优势,而成为行政工具,通常是专家系统,所形成的算法规则是行政规则的数字化呈现。
此时,在正当程序原则的“行政权力—算法权力—公民权利”三方结构中,需基于个体防御“行政权力—算法权力”来更新行政程序。将“行政权力—算法权力”视为整体,是因为行政机关选择自动化系统构成行政裁量。基于算法权力行使的正当性属于行政裁量正当性,“公民权利”与“行政权力—算法权力”的结构就相当于“行政权力—公民权利”的结构。由于采用自动化决策会改变公民对行政认知与理解的方式与程度,从而影响个体防御效果。故在利用自动化系统的好处与避免自动化系统的坏处上,公民应享有知情权,行政机关负担相应的程序义务,包括解释与说明自动化系统的好处,以及为人工决策下程序机制转化为数字方式提供相应的程序供给。
法律与技术之间的程序转换主要表现为增设自动化系统解释与说明程序,扩大公民对产生行政效果的技术事项知情权,并在两种情境中为行政程序提供技术翻译。其一,自动化系统改变了行政行为的形式,在行政公开、说理等程序事项中,将技术语言翻译成法律语言。这需要对自动化系统带来的影响进行公开、说明、提供沟通渠道、收集异议意见等。如将书面内容转化为电子方式,构建电子签名替代书面签名时的搭桥规则。其二,在自动化系统的适用意味着减免部分行政程序时,需解释和说明为何用自动化系统替代听证程序等一般认为不可或缺的程序。如在决定采用自动化系统之前,开展算法影响评估机制,并将算法影响效果公开,证明自动化行政能带来比人工行政更好的社会效益,从而缩减后续的听证、接受异议等行政程序。这只有在弥补人类生理和心理缺陷的科技力量替代了排除偏见、听取意见和陈述申辩等程序具有的纠错价值时,才是合理的。
2.为技术效果赋予行政意涵
自动化系统自身遵循的一套规则,不完全被行政权所吸收时,具有对不特定多数公民的立法意义。在算法权力与公民权利之间就形成了基于自动化系统适用的技术效果。对此,正当程序原则的“行政权力—算法权力—公民权利”三方结构,需聚焦于行政对“算法权力—公民权利”的调控。“算法权力—公民权利”互动产生的技术效果包括两个方面:其一,算法权力促进公共管理与服务的优化,保障公民享受数字福利的受益效果。对此,行政调控要保障公民借助算法权力分享数字福利,推动“算法权力助益公民权利”的行政立法,尤其是推行一体化政务服务平台建设相关规范,如《江苏省政府关于加快推进一体化在线政务服务平台建设的实施意见》,以及保障数字弱势群体的相关规范,如《互联网应用适老化及无障碍改造专项行动方案》等。其二,算法权力对公民个体造成权益损害的侵益效果。由于我国行政诉讼法规定了对规范性文件的附带审查制度,公民个体请求法院对具有普遍适用性的算法规则本身展开司法审查,难获支持。故需以集体性权利保护方式,借助行政公益诉讼等保护多数人的方式来间接保护个体,实现对“算法权力侵害公民权利”的行政问责。具体可设置三个层次的行政程序。
首先,调控“算法权力—公民权利”的行政介入程序。算法权力的影响多元,产生分散的外部效应,可能对部分公民有益,对部分公民有害,亦涉及公共福利保障等利益权衡问题。正当程序原则的个体防御功能在算法规则制定的情境下,无法对“算法权力—公民权利”直接发挥作用,需依赖行政权的介入。通过行政监管和审查,如开展算法审计,约束和限制直接产生集体性权力行使效果的算法规则制定,并对可能受影响的公民权利与自动化系统带来的社会效益进行权衡,以产生集体性的权利保护效果。
其次,监督“算法权力—公民权利”的行政立法程序。当算法对不特定多数人产生既有法律规则之外的普遍影响时,即形成了“立法性”的算法权力。无论此时自动化行政呈现何种外观,都应视为一项行政立法行为。既有的行政立法程序固然要遵守,但更应解决的问题是行政权力如何对待算法权力。这需要设置行政监督与审查算法权力的程序,如代码妥当性的事先论证与事后纠正程序等,通过行政监督与审查,将算法权力转化为行政权力,将算法立法权转换为行政立法权。由此,行政机关不可再以选择自动化系统构成行政裁量为由,免受行政立法程序机制的约束。
最后,纠正“算法权力—公民权利”的行政问责程序。算法权力以自动化行政的外观对公民权利产生侵益效果,所需设置的是行政问责程序。鉴于算法权力问责是通过行政对算法的监督与审核来实现,而非直接由公民监督算法权力行使,行政所需面对的立法监督、行政监督、司法审查、公民申诉异议等问责程序,依然发挥作用。但行政问责的内容,基于算法权力的介入,多出了一项行政监督与审查算法规则制定的内容。公民权利救济也兼具直接对行政提出主张的个体性保护方式,与间接通过行政监督算法权力的集体性保护方式。
04
法律和技术的运行逻辑不同。以对生产与分配的分析来说,技术旨在促进生产,并不关心如何分配,分配是否正义;法律旨在促进分配,关心如何实现公平正义。传统正当程序原则追求的正义关心分配,而非生产。其个体防御功能的核心是保障公权力在追求福利、分配社会资源的过程中,不肆意侵害个体尊严价值或不基于事实认识错误而丧失准确性。而技术介入后,正当程序原则不得不同时面对生产和分配的正义问题。技术在促进生产上的巨大效益,具有集体性,可能与个体防御功能下的程序正义产生冲突。在保留个体尊严与对抗行政错误以实现程序正当的同时,追求技术正当,平衡技术优势与个体尊严、行政准确性之间的利益,成为自动化行政中正当程序原则的重构方向。基于技术适应性,正当程序原则的重构首先体现为程序正义的提升,而后据此增设行政程序。
(一)程序正义的提升
程序正义提升的关键是在比较法律和技术价值的基础之上,将符合与促进法律价值的技术纳入正义范畴,形成替代正义、优势正义与未来正义的新内涵。
1.替代正义:用技术正当折抵程序正当
技术的准确性可置换个体防御程序所保障的准确性,从而用技术正当折抵程序正当,实现替代正义。不过,这要满足两项条件:一是在追求事实准确性上,技术效用与程序效用之间可以折抵;二是技术准确性得以证成,以保障技术正当。
就追求事实的准确性而言,一方面正当程序原则中程序正当可能被替代,尤其是个体质疑行政决定可能存在错误,并通过申诉来纠错的情形。在Goldberg v. Kelly案中,布伦南大法官提出,“听证会只有一个功能……为了保护福利受领者的福利保障不被错误终止……”另有学者认为,在Goldberg案件之后,“准确是正当程序的关键”。可见,程序正当不只有过程意义,也具有事实意义。Plummer v. Univ. of Houston案进一步证明,当事实认定足以让法官形成内心确信时,程序正当的标准会降低。该案中,学校基于视频证据而认定性侵行为成立,拒绝涉嫌性侵行为人的申诉,并开除之。该行为人向法院起诉,认为自己未受到足够的正当程序保障。法院基于在有‘压倒性的’视频和照片证据证明有罪的情况下,正当程序标准可能会降低,认定原告已获得充足的程序保障。
另一方面,技术可以生产与发现事实,抵消人工决策所具有的人类生理与心理局限,提高决策准确性。正如法国哲学家拉图尔所言,“在实验中以非人类的机器生产事实,是一种新的技术或机制。这些机器就被赋予了一种新的符号力量,塑造了一种剥除了人性的‘事实’与‘客观性’文化。也由此,当人们发生怀疑时,机器就成了更好的帮助者”。此时,无论专家系统还是机器学习系统,都可以避免基于人类认知局限、生理疲倦、主观恶意等产生的人工决策错误。此种技术优势可抵消为纠正人工错误而设置的个体防御程序保障。
就技术正当的保障而言,一方面只有经过验证,才能证明自动化决策是准确的。就像Plummer v. Univ. of Houston案不保护原告向学校提起申诉的程序利益,是因为视频证据具有压倒性的事实证明力。用自动化系统的适用来替代个体的异议程序,也建立在有压倒性事实证明力的基础之上。所以,在自动化行政中要增设相应的行政程序,为技术准确性提供压倒性事实证据,以证成技术在决策准确性上的正当性。另一方面,技术应用具有程序正当无法实现的规模价值与效率价值。而为纠正行政错误所设置的个体防御程序并非总能发挥效用,有时会陷入程序空转等困境。鉴于此,技术正当不仅更契合技术普遍适用的价值,也提升了传统个体防御功能下的程序正当。故在满足相关条件时,技术正当可折抵程序正当。
2.优势正义:用技术正当强化程序正当
基于认可自动化处理以一种比人工处理更优的方式开展行政活动,可用技术正当强化程序正当,实现优势正义。
正当程序原则在人工决策的发展史中,一般将目标限定为公民生命、自由、财产等免受不当侵害的消极权利保护。基于此,学界多将自动化技术视为对公民权利的威胁,所提出的正当程序变革路径主要是个体防御程序的优化。如建议在“收集个体关于他们的信息,以及集中评估测试数据集中关于算法在个人之间的准确性的信息时,向个人明确通知”。但在自动化行政中,个体防御程序不再是维护正当程序利益的最佳方式。自动化系统的准确性,难以通过个案予以证明,人工决策也不一定比自动化决策更准确有效。程序在技术应用中的变革更应体现在自动化系统的设计上,包括检查高质量训练数据、学习模型和结果变量之间的拟合,以及结果变量和潜在变量之间的匹配。只不过,这些系统设计偏向技术程序,需转化为能被法律调整的行政程序,证成自动化系统的效率价值,才能发挥优势。
自动化行政中正当程序利益发生了变化。从社会发展来看,自动化行政创造了更优质的公共管理与服务,对公民而言也是一项基于数字化而新增的公共福利。如上海市“随申办”作为政务服务平台,即“以向社会公众提供‘动态最优’服务为核心目标,同时依据动态变化的数据或政策法规实时调整服务内容,实现公共服务供给的动态效率”。这在个体防御程序功能之下是被忽视的。传统正当程序并不追求额外的政务服务优化,从而保障公民受益。但自动化行政可以改变正当程序的价值追求,致力于社会福利创造与分配上的程序正当。在个体防御程序追求公民消极权利保护的目标之外,自动化行政中的正当程序具有了积极拥抱自动化技术优势、保护积极权利的目标。
鉴于传统个体防御程序在适用场域与价值目标上的局限性,借助技术追求不特定多数人的集体利益,并促进个体受益,展现了用技术正当强化程序正当的双重优势。其一,扩大程序正当的评价范围。通过技术事项与行政程序的转化,可将技术事项纳入法律正当的评价,使程序正当通过容纳新事项,扩大行政程序的辐射范围。其二,扩大公民权利保护范围。鉴于数字化转型有助于创造数字财富、实现共同富裕,国家保障公民积极分享与获得数字福利的权利需求日益突出。围绕积极权利保护设置相应的程序,可延展正当程序原则中受保护的公民权益范围。通过调和程序的个体性权利保护功能与集体性权利保护功能,自动化系统的普遍优势可转化为公共福利保障下的集体性权利保护,并间接促进个体性权利保护。这将使程序正义从保障公民个体权益免受不当侵害往前进了一步,产生保障公民积极分享数字福利的个体受益保护内涵。
3.未来正义:用技术正当再造程序正当
基于公民个体权益保障与监督算法普遍适用之间、算法当下效果检测与未来普遍适用之间的相互联系,可用技术正当再造程序正当,实现未来正义。
自动化行政在产生规模效益、经济利益时,个体防御程序功能的作用情境发生变化。如前述机器学习系统下自动化行政司法实践的困境一般,欲在自动化行政中实现公民个体防御程序功能,只能退出自动化系统,转向人工决策。因为若在不退出自动化决策的情形下主张个体防御,所依靠的程序通常是要求检测或更新自动化系统。但采用该程序花费的行政成本,相较于不采用新程序对个体权益造成损害的风险以及自动化行政带来的政府收益而言,过于高昂。个体基于防御自身权益受到损害而主张对自动化系统进行检测或更新,无法满足Mathews v. Eldridge案的“成本—效益”分析标准,从而难以获得支持,更不会基于个体异议而禁止自动化系统的普遍适用。
然而,对权益受侵害的个体停用自动化系统,对其他相对人保留自动化决策这一路径,会产生两方面的问题:其一,退出自动化系统的个体就无法再享有自动化系统适用可能带来的福利,而该个体免遭侵害与未享有受益之间孰轻孰重,在不对自动化系统本身进行检测与验证的情况下,是无法判断的。其二,无法证成自动化行政整体的正当性,尤其是自动化系统对部分个体造成损害时,更易降低对自动化系统的信任,从而怀疑对其他相对人继续适用自动化系统也会造成损害,只是未被发现。由此,需改造以个体防御为目的的程序正义,改造方式是设置新的行政程序,将技术事项纳入法律调整范围。
自动化行政中的程序正义需展现一种与人工决策中正当程序原则追求的“当下正义”有所不同的“未来正义”,包括两个方面的正当性要求:其一,以个体性防御程序开启对技术正当的检验程序,亦即通过个体对自动化行政结果的异议程序,展现自动化系统可能存在的内置错误,引出对自动化系统整体检验的程序。其二,对提出异议的个体采用事后的、个体性权利保护的程序正当标准,对自动化系统本身的适用采用面向未来的、事前集体性权力控制的程序正当标准。自动化系统的正当性检验,通过自动化系统的更新等技术手段实现,以调和技术正当与行政正当。如此,自动化行政中的程序正当将突破传统“成本—效益”分析标准,不只比较当下新增程序产生的行政成本与个体权益免遭侵害的效益,还要比较当下新增技术检验程序的成本与未来技术更新之后对多数公民权益保障的效益。
未来正义在一定程度上契合阿马蒂亚·森提出的“以自由看待发展”的理念,不是被动地保护当下公民自由不受侵害,而是积极地推动社会发展,使公民获得更多的资源,实现更大程度的自由。自动化行政在积极利用技术赋能社会发展上所实现的正义不是当下的,而是长远的、未来的。为此,正当程序原则允许当下个体程序正当保障成本的攀升,提高未来行政效益与造福公民,换取未来集体受益。但未来集体受益需基于数字红利的分配与共享,造福公民个体,提升个体受益保障的正当性。
(二)行政程序的增设
基于程序正义的提升,正当程序的要件也需予以重构。由于自动化行政外观是算法规则普遍适用与行政个案决定效果的互动,程序作用方式不再是集体性权力限制匹配集体性权利保护,个体性权力限制匹配个体性权利保护,而是集体性方式与个体性方式的联动。可以发现:对个案事后权益的程序保障,要通过事前评估自动化系统来实现。对自动化系统准确性的验证,要通过对比人工个案与自动化个案的结果来实现。对自动化系统的错误纠正,要通过个案事后权益的程序保障来实现。由此,需增设以下三类行政程序。
1.算法规则适用的转译程序
自动化行政中公民个体性权利保护方式陷入困境,这有两方面的原因:一是自动化系统以普遍适用的方式对不特定多数相对人产生影响,个体难以对抗此种基于自动化系统的普遍适用而产生的集体性权力行使方式。二是自动化系统对个体权利的影响以非自然语言的方式呈现,个体基于技术语言的障碍难以对自动化系统的适用提出质疑。正如休斯顿独立学区案一般,学区对教师作出解雇与否的决定,看似是对个体作出的,实则是适用自动化系统的结果。而学区是如何利用自动化系统对教师作出评分的,既不能充分解释,也无法验证个体评分结果的准确性。由此,只有妥善应对自动化系统的集体性权力行使不当与技术语言障碍,才能再次通过个体性权利保护方式发挥正当程序的功能。鉴于除非回归人工决策,否则行政机关无法脱离算法规则进行个案裁量,行政机关宜对算法规则适用的合理性承担证明责任,并设置算法规则适用的行政转译程序。
一方面,正当程序原则的传统个体防御程序多体现为个体性权利保护方式,听取意见、排除偏见、说明理由等程序不直接保护个体性权利中的实体性内容,而是给公民提供一个可以保障自身尊严价值、纠正行政错误的机会。而在自动化行政中,由于技术壁垒,公民无法基于知情而享有尊严,或基于理性判断而质疑行政决定的准确性,但借助算法规则普遍适用的合理性可佐证公民个体性权利大体未遭受侵害。故在算法规则嵌入行政规则后,应通过事前规制将算法规则的制定与适用转译为行政活动后,由行政机关对外履行义务与承担责任。比如,通过对算法规则制定的行政审查与评估程序,保证算法规则符合基本的法治精神和伦理价值,并将算法规则适用不当时的技术问责转化为行政问责。又如,对算法规则适用的行政解释与说明程序,将技术语言转译为法律语言,保证自动化系统的算法影响效果可以自然语言的方式呈现,并将此种算法影响效果作为行政公开与说明理由的新增内容,由行政机关负担告知与说明义务。
另一方面,算法规则适用的行政转译程序是否存在本身可成为公民主张个体性权利保护的依据,从而在个体性权利保护与集体性权力限制之间搭建桥梁。公民个体可基于该程序欠缺或该程序的结果不能证明算法规则的有效性和准确性,而寻求救济,主要是不再适用该算法规则,回归人工决策,但视情况也会引发后文论及的通过更新纠正自动化系统错误的效果。
2.自动化决策与人工决策的比较程序
自动化系统的适用不是天然正义的。我们需要解释为何在人工决策与自动化决策中选择了自动化决策。仅因为自动化决策能提升行政效益吗?在自动化决策虽节约行政成本、提高行政效率,但容易出错或错误难以发现时,自动化系统会陷入以经济效益替代公正价值的困境。实践中的棘手问题是:在普遍意义上,承认自动化系统增加政府能力、提高效率,造福人类;但在具体情境中,却无法验证自动化系统是否确实有利于相对人,尤其是对那些被限制或剥夺权益的公民个体而言,看起来并非更有益。案件屡见不鲜。对此,有学者提出将“前瞻性基准测试”(prospective benchmarking)作为验证自动化系统的方法。“当机构采用人工智能决策工具时,它们应该将其置于一组随机的、经过传统人工审查的案件基准之下。将前瞻性基准测试纳入人工智能系统的部署,使机构能够更可靠地了解潜在影响。采用人工智能的精度增益是多少?人工智能的采用会影响偏见吗?节省了多少时间?算法是否存在其他与人工审查相关的系统性错误?”此种前瞻性基准测试即发挥着比较人工决策与自动化决策的程序功能。
为证成自动化决策是更合理、更有利的行政方式,行政机关理应负担比较自动化决策与人工决策之间优劣的程序义务。设置自动化决策与人工决策的行政比较程序,可保障自动化决策不会对行政相对人权利造成比人工决策更负面的影响。不过,这种保护方式很特殊,是通过人工保留的个体性决策所实现的个体性权利保护方式,来调动自动化决策内置的集体性权利保护方式。具体来说,行政机关在适用自动化决策之前,随机保留部分个体作为人工决策的对象。接着,比较人工决策的个体结果与自动化决策的个体结果,确保自动化决策在不损害个体权利的情况下,还能取得更好的效益,方可验证人工保留决策之外的其他自动化决策是准确和妥当的。通过随机地证明适用自动化决策的个体权利没有遭受不当侵害,来实现对自动化系统的集体性权利保护。
3.自动化系统纠错的更新程序
当自动化行政中的程序问题集中到自动化系统错误,造成公民个体权益损害时,多数司法实践为保障程序性正当程序,要求退出自动化系统。正如休斯顿独立学区案中法院认为的,“当一个公共机构采用一种基于与最低限度正当程序不相容的秘密算法作出高风险雇佣决策的政策时,适当的补救措施是推翻该政策”。一般来说,重置自动化系统会改变对其他适用对象的输出结果。基于自动化系统的普遍适用特征、高昂重置成本,以及系统重置引发的不稳定性,行政机关倾向于只对提出异议的公民个体予以人工决策的重新处理。出于鼓励新兴事物发展与促进技术利用,也不宜完全禁止行政机关适用自动化系统。故自动化系统对个体产生适用错误时,只纠正个体错误,返回人工决策;对其他适用自动化系统的决策,不再重新决策;未来行政机关重新采用自动化系统,也不因曾采纳过错误的自动化系统而受限。
但如前所述,返回人工决策不足以实现个体受益保障与自动化系统整体正当性的保障。鉴于对自动化系统的继续适用本身意味着对技术赋能的积极利用,有助于促进个体受益,正当性保障的关键在于对自动化系统自身的优化与完善。对此,需从自动化系统未来普遍适用的集体性权力限制角度,设置自动化系统纠错的行政更新程序。一方面,自动化系统应用于公民个体时产生了问题,就不能忽视那些未被发现,但可能也存在问题的情形。即便不重置自动化系统,将结果溯及自动化系统作出决定之时,也要行政机关停止在未来继续适用该自动化系统。另一方面,自动化系统错误产生对公民权益损害的结果,需进行问责。按照前述对正当程序原则中“算法权力—行政权力”的解构,被问责主体是行政机关,行政机关除了对个体权益损害负责之外,还应纠正自动化系统自身的错误。设置自动化系统纠错的行政更新程序,可超出个体防御功能,通过更新优化自动化系统以供未来普遍适用,从而发挥个体防御与集体受益的利益权衡功能。它以原自动化系统错误造成公民个体权利受损的外显状态为前提,基于返回人工决策的个体性权利保护方式,质疑原自动化系统整体准确性,产生行政更新自动化系统的程序义务。而后以行政主导或监督下的自动化系统更新程序,保障未来自动化系统普遍适用的准确性,从而实现对未来自动化系统的集体性权力限制。
总的来说,这些增设的行政程序促进了集体性权力限制与个体性权利保护、集体性权利保护与个体性权利保护之间的互动,成为自动化行政中程序正当的新要件。但正如“听取意见”在家庭扶助保障福利撤回时表现为事前听证程序,而在残疾补贴撤回时表现为事后陈述申辩程序一般,增设的行政程序仍保留行政机关在具体情境下的程序选择空间,以适应技术类型及其迭代。
05
在数字时代,尤其是我国积极促进数字政府、数字社会与数字国家建设的大背景下,防御自动化行政对个体权利的侵害固然重要,但积极部署与发展自动化行政,让算法权力转变为数字红利,造福集体,促进个体受益,同样重要。2025年出台的《国务院关于深入实施“人工智能+”行动的意见》愈加突出人工智能对优化政务服务、改善社会治理与促进民生保障等方面的赋能,提出要“加快培育发展新质生产力,使全体人民共享人工智能发展成果”。由此,正当程序原则在自动化行政中的重构更逢其时。通过促进法律适应技术发展,可消除正当程序原则传统功能下的法律元素与自动化行政中的技术元素之间的龃龉,确立正当程序原则的“个体防御与集体受益的利益权衡功能”,从而实现程序正义的提升与行政程序的迭代。这契合我国乃至全球数字化发展的长远定位,回应了自动化行政对传统行政法理论与实践的挑战,有助于形塑数字时代行政法在权衡公共福祉与个体利益上的正义目标。
来源:《比较法研究》2025年第5期