论文精粹|INFORMATION
陈靖远:迈向程序正义:平台用工场景中算法自动化决策的人工控制
管理员 发布时间:2026-01-21 19:33  点击:16

摘要:互联网用工平台对算法自动化决策系统的广泛运用催生了新的社会问题。在现行应对举措中,“算法取中”的实质性规则调整与权利视角下的“脱离自动化决策”等主要方案对于现实问题的解决仍然存在局限。因此,有必要引入“有意义的人工控制”作为互联网用工平台使用算法自动化决策系统应当履行的一般程序性义务。在正当性方面,“有意义的人工控制”是对平台算法权力的程序矫正,在维护社会共同体的整体价值与人性尊严方面具有独立价值。在义务内容方面,互联网用工平台应当在应用算法自动化决策系统的全周期内,通过事前一般禁止、事中流程监督和事后异议申诉等方式实现有意义的人工控制。在机制建构方面,可以借鉴“守门人”模式划定适格主体范围,设置公法与私法上的双重法律后果,并将程序性义务的履行纳入算法合规审计。

关键词:平台用工;算法自动化决策;有意义的人工控制;程序正义

一、问题的提出

数字技术的发展正在深刻地影响着人们的工作方式以及组织工作的管理形式。人工智能、大数据、算法技术的深度融合推动了诸如滴滴、美团、饿了么等劳动密集型互联网用工平台的迅速发展,并吸纳了大量的新业态劳动者就业。第九次全国职工队伍状况调查结果显示,我国新业态劳动者的数量达8400万人,已占职工总数的21%,成为职工队伍的重要组成部分。与传统的劳务服务行业相比,互联网用工平台在新技术的支持下,以算法程序独揽了绝大多数专业化工作,自动化算法从任务分配、行为控制、服务声誉、绩效评估、动态薪酬等多个方面制定和执行着影响工作者的决策,形成了“算法控制劳动”的典型模式。与此同时,互联网用工平台对算法技术的运用也催生了新的社会问题。算法的不透明性、数据资源的单向垄断以及平台对责任的刻意规避,不仅加剧了平台与劳动者之间的不平等关系,也增加了劳动者权益保障和权利救济的难度。算法技术与人类社会的紧密结合不仅形成了更为复杂的社会技术系统,也带来了技术伦理领域的深刻反思。但问题的最终解决方案仍然要落脚到明确的法治原则、具有约束力的法律规范以及有效的执行机制。目前,在我国现行法治框架内,已经存在积极有益的理论研究与实践探索。接下来,本部分将对既有研究与制度经验展开分析,并思考是否仍有需进一步推进的课题。

(一)数字牢笼内“结果导向型”实质内容矫正的力有不逮

针对互联网用工平台运用算法技术所带来的问题,相关部门已经出台了一系列应对举措。其中,2021年人力资源和社会保障部等八部门发布的《关于维护新就业形态劳动者劳动保障权益的指导意见》(人社部发〔2021〕56号)(以下简称56号文)和国家市场监督管理总局等八部门发布的《关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》(国市监网监发〔2021〕38号)(以下简称38号文)对新就业形态劳动者的权益保障作出了具体指导,并提出了“算法取中”的规制理念,对算法规则的实质内容的公平性作出要求。无论是56号文督促“企业制定修订平台进入退出、订单分配、计件单价、抽成比例、报酬构成及支付、工作时间、奖惩等直接涉及劳动者权益的制度规则和平台算法”,还是38号文指出“网络餐饮平台及第三方合作单位要通过‘算法取中’等方式,合理确定订单数量、在线率等考核要素,适当放宽配送时限”,都指向一种“结果导向型”的平台用工算法规制模式,即不干预算法内部运作细节或行为的过程性要素,仅对算法输出结果设置必要的标准。

然而,“算法取中”概念自身存在着一定的不确定性。“算法取中”应实现怎样的劳动强度?算法自动化决策应如何保护劳动者的合法权益?对此,尚未形成学理共识和制度构造。同时,自相关政策文件出台以来,虽然部分大型互联网用工平台相继推动算法规则公开及改进,并取得了一定的成效,然而,在平台用工场景中,自动化算法深入而广泛地参与到平台对新业态劳动者作出的配送时间、派单权重、评分评级、罚款封户等决策中,互联网用工平台的自动化算法系统不仅决定着算法规则的制定,也对重要的个人权利作出决定性决策。实践中的纠纷大多发生在受具体算法自动化决策影响的个人与平台之间,关涉既定算法规则的适用与执行问题。特别是,由于平台的算法管理将规则制定与具体决策结合起来,算法不透明使得受影响者无法识别究竟是算法规则本身的问题,还是算法自动化决策的错误,因而加剧了个人寻求权利救济的难度。

从目前的实践现状来看,平台劳动者仍普遍面临着算法规则运行偏颇以及随之而来的自身权益受损时申诉机制不畅等问题。通过对随机抽取自国内知名网络消费纠纷调解平台“黑猫投诉”的120份某外卖平台骑手投诉样本进行实证分析,可以发现算法运行问题和申诉困难是最主要的两个投诉原因。其中,算法运行问题占58.3%,主要包括导航路线错误、派单不合理、配送时间过短等,这些会导致骑手超时或违规,另外还包括算法不透明,这会导致骑手在因无法了解具体规则而被扣款或处罚时无法申诉。此外,申诉困难占25%,主要涉及骑手在遇到问题时申诉渠道不畅通,向平台反映后问题仍未得到解决等。同时,这120份样本的争议金额普遍较小。其中,有70份样本的争议金额为20元以下,争议金额为100元以上的样本仅有5份。骑手大多只能选择向平台客服进行申诉。

算法公平性涉及复杂的建构。即使抽象的算法规则或具体的算法决策符合实质公平的要求,个体仍然可能对算法决策产生不信任感,并由此引发算法厌恶。研究显示,对于在涉及人类主观判断的任务中应用算法,公众仍保持着保留的态度。普遍认为,算法缺乏人类的直觉和情感,这会导致算法决策的公平性和可信度不足,甚至会引发更负面的情感反应。受影响者即便认为决策中使用的因素是适当的,也会对决策过程的公平性提出质疑。这种受影响者乃至社会公众对算法决策公平性的持续怀疑潜移默化地侵蚀着互联网用工平台的社会信任基础,任何一个微小的诱因都可能导致社会矛盾激化,影响平台经济持续健康发展。在现实中,外卖员与消费者、保安之间的冲突亦时有发生,引发社会公众的关切。这一社会问题背后实质上是外卖平台紧绷的算法痕迹——平台劳动者“经常会像抱怨真实的管理者那样抱怨平台系统”,“也会把不满发泄到消费者身上”,而冰冷的、虚拟的平台算法系统越是无法及时、有效地对劳动者的不满与诉求作出体谅与回应,平台劳动者与消费者、商家以及保安等其在劳动过程中直接发生接触的人群之间的矛盾冲突便会越激烈。

(二)场景主义下“脱离完全自动化决策权”的虚幻承诺

如果问题还出在平台的算法自动化决策过程中,那么,通过使受决策影响者脱离平台的算法自动化决策,是否能够解决由此带来的问题?对此,我国《个人信息保护法》(以下简称《个保法》)第24条第3款规定:“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”该规定赋予自然人脱离完全自动化决策的权利。在劳动就业领域,劳动者同样受到《个保法》第24条第3款的保护,应当享有脱离自动化决策权。

目前,数字法学理论界与实务界对于《个保法》第24条第3款的内涵理解尚存在“权利模式”抑或“义务模式”的分歧。权利模式的本质是将“脱离自动化决策权”视为一种请求权,即受自动化决策影响的个人信息主体在满足特定要件的情况下,享有请求个人信息处理者“为或不为一定行为的权利”,是一种被动的决策干预。义务模式又可被称为禁令模式、规制模式,是指向使用算法自动化决策的信息处理者施加额外的程序性义务,制约算法决策权力的滥用,欧盟《通用数据保护条例》(General Data Protection Regulation)(以下简称GDPR)即采用该模式。从治理理念上来看,对自动化决策的一般性允许与基于个别主张的拒绝权行使相结合的模式,“在人工智能产业发展和个体权益保护之间试图进行微妙平衡”。但一个平台的决策是否能够脱离完全自动化决策,首先取决于人类干预是否已提前嵌入算法自动化决策系统中,而这并非仅凭行使个人请求权所能实现的。在面对信息处理者大规模处理个人信息所带来的风险时,试图依靠个体化的自主控制来制约信息处理者滥用权力、避免权利遭受侵害的私法保护模式,有可能在很大程度上沦为个人信息保护的乌托邦。

特别是在平台用工场景下,如果仅依靠个体劳动者的维权行为,则个体需要付出高昂的时间与经济成本,否则只能被动承受自动化决策带来的负面后果。而互联网用工平台牵涉的平台劳动者人数众多,不当的自动化决策不仅会影响个体劳动者的人格尊严、生命健康与财产权益,还有可能造成规模性的权益侵害结果,进而引发系统性的社会风险。由于算法黑箱与信息茧房问题的存在,骑手很难寻找到对抗算法规训的个体性维权策略。在自身权益受到损害后,因为涉及金额普遍较小,许多劳动者不得不选择放弃权利救济。即使劳动者针对此类问题寻求救济,也会因算法不透明、取证困难等原因,导致自身权益难以得到保障。此外,权利模式是否当然地更为高效、经济,也是值得反思的。在法律明确规定个体享有“完全自动化决策”拒绝权的前提下,赋予个体过于灵活的事后推翻自动化决策的判断权,反而会为自动化决策的应用带来较大的不确定性,影响算法自动化决策的正常运行,造成更高的制度成本。鉴于权利模式在实施效果上的不足,理论界开始在类型化和场景主义的思路下进一步探索权利模式与义务模式的融合。

为避免人类决策者沦为“橡皮图章”(rubber stamping),国际社会在人工智能治理伦理与制度中逐渐发展出了“有意义的人工控制”(meaningful human control)概念,即人类有义务向决策结果施加有意义的人工控制,而非仅仅将人类参与作为空洞的程序步骤。其宗旨是将算法自主性与人类的控制及责任相结合,由人类而非计算机及其算法最终控制有关行动的决定,从而在道德和法律上负责。然而,依循公私领域二分的传统,平台组织架构及其所建立的法律关系是典型的私法关系。平台所建立的软件代码和物理网络设施,在法律性质上是平台所有者的私人财产,从而受到在古典自然法和自由主义理论基础上建立的合同法与财产法的当然保护。法律通常不会要求私人行为主体承担额外的任何形式的公法义务。因此,主张对私营主体施加特别的义务限制,限制其算法自动化决策使用之自由,并非不证自明的结论,仍须承担额外的正当性论证负担。

在劳动法学界,如何将《个保法》第24条规定的关于自动化决策的人工干预措施在平台用工具体场景中予以细化,也已经成为重要的研究课题。但是,对于如何在平台用工场景中落实平台劳动者脱离完全自动化决策的法定权利,当前的立法与实践并不明晰,相关研究仍处于探索阶段。“算法规制应当建立在场景化思维的基础上”,平台用工场景在用户特征、权力关系、所涉问题等方面均具有特殊性。对此,应当在算法自动化决策的一般治理中予以特别考虑。如何打通算法规制的一般原理、规则与职场具体场景的特殊需求,建构职场算法规制的原理和规则,仍是迫切任务。综合前述分析,本文将致力于解决如下三个环环相扣的问题:其一,对于作为私营主体的互联网用工平台来说,将“有意义的人工控制”作为一般程序性义务,是否具有法理上的正当性?其二,在平台用工场景下,互联网用工平台应当通过设置哪些具体的程序性义务,来实现对平台用工算法自动化决策的“有意义的人工控制”?其三,在未来的具体制度建构中,应当如何在充分发挥互联网用工平台具有的自动化决策技术优势的同时,进一步落实“有意义的人工控制”义务?

二、“有意义的人工控制”作为平台一般程序性义务的价值基础

在人工智能和算法自动化决策部署中,最紧迫的问题是,防止算法技术发展与随之而来的效率提升以牺牲人的自主性和安全与权利为代价。但是,我们也要预防矫枉过正的风险,不能不当限制算法自动化技术对组织决策、资源调配以及劳动用工效率的提升作用,不能忽视人工控制背后所需额外付出的高昂人工成本。因此,在平台用工算法治理的背景下,为什么要引入“有意义的人工控制”作为互联网用工平台的一般程序性义务,是必须回应的价值基础问题。本部分将批判性地分析,在平台所使用的算法自动化决策系统中人类的参与为何必要,以及附属于人类决策者本身并构成程序正义的价值基础是什么。

(一)超越劳动关系:以程序正义矫正平台算法权力的失控风险

一直以来,劳动法对平台用工算法的规制仍主要聚焦在新业态劳动者与互联网用工平台之间的劳动关系认定。如果劳动者与互联网用工平台之间的关系可被认定为劳动关系,便可借鉴传统的劳动法规制理念,对算法的规则内容和制定程序进行规制。劳动法属于社会法的范畴,其以劳动关系的从属性为基础,构建了向处于结构性弱势地位的劳动者提供倾斜保护的公私融合的调整机制。因此,在劳动法视域中,平台用工算法规制需要依循“平台用工特征→从属性判断→劳动关系认定→劳动法中权利义务适用”的分析进路。但是,由于平台用工的灵活性与异质性特点,“平台工人与平台之间的法律关系难以单一劳动关系系统认定”。同时,“全有或全无”的劳动法调整模式给劳动关系的认定带来了高昂的法律适用成本。若将劳动法应用于平台用工中算法自动化决策问题的解决,则往往面临着较大的障碍和阻力。那么,假如新业态劳动者与互联网用工平台之间的关系无法被认定为劳动关系,互联网用工平台使用算法系统作出限制或关闭账户、评分排级、订单定价、任务分配、劳动时限等一系列影响劳动者实际权益的自动化决策,是否就可以不受拘束?

平台治理与算法自动化决策对社会和法律构成的威胁不仅可被归结为数据治理问题,还与更为基本的社会组织、社会互动对计算过程的依赖性日益加剧有关。在互联网用工平台中,平台劳动者事实上具有平台劳务提供者(劳动者)和平台应用程序使用者(用户)的双重身份。作为用户的平台劳动者在其与平台企业之间形成的技术服务交易关系中也同样处于实质的权力不平等地位。数字化转型推动了社会从工业时代向信息时代过渡,使得经济价值的创造方式从物质生产转向信息流动。作为私营主体的互联网用工平台通过技术和市场地位,获得了制定和执行算法规则的权力,甚至进一步扩张了影响用户基本财产权利的裁决权。从形式上看,平台与作为用户的平台劳动者在法律关系上仅构成一个简单的交易结构:劳动者概括性地接受平台的格式条款与算法规制的约束,以换取登录访问平台的可能性。此时,双方之间的行为似乎都建立在自由市场中理性人的假设之上,以“同意”为基础为各自的行为负责。但事实上,这些互联网平台逐渐成为数字时代大众获取信息、管理私人或职业关系甚至是获取生计的主要渠道,发展为社会基础设施。即使对于影响公共利益与基本权利的决策问题,超大型互联网平台一般也将其作为商业问题看待,将其交由技术或商业团队决定。为了获得互联网用工平台所提供的数据与服务,劳动者不得不放弃个人的基本权利,与平台形成实质上的垂直权力关系,接受平台算法规则的约束与管理。此时,即使不以劳动关系的存在作为劳动者受到法律保护的前提,仍有对互联网用工平台进行权力制约与行为规制的正当性与必要性。

随着互联网平台的算法规制及其自动化决策权力对用户实际权益的影响日益加深,如何为对互联网平台算法权力的必要限制提供技术与法律制度支持就成为更加迫切需要解决的问题。不经约束的权力必然存在滥用的风险。算法自动化系统的决策权实质上也是由享有权力的互联网平台自主分配与让渡的,这在本质上体现了一种算法权力结构下的不平等关系。此时,我们有必要打破公私领域的严格划分,探讨如何借用基本的法治分析框架,为私营平台的算法权力限制提供初步的规范思路。法治不仅仅要求法律活动实体合法,也要求程序合法。从权力制约的角度出发,互联网用工平台使用算法自动化决策的权力实际上涉及实质限制和程序限制两方面的问题。实质正义要求算法自动化决策所依托的算法规则及其作出的决策结果的公正性,程序正义则确保了算法自动化决策产生过程的最低限度的公正性。拥有符合实质正义标准的算法决策结果自然是一种理想状态,但如果在程序层面缺乏对决策机制过程的保障,那么决策的结果也可能会变得无效。相比于实质正义,程序正义似乎是更易于在技术和法律框架内实现的保障机制,是一种“看得见的正义”。但是,如果从决策的客观性与一致性来看,算法自动化决策显然比人类决策更具有优势,共享经济与平台用工也正是依托于大数据与自动化算法才得以繁荣发展的。那么,人类参与对平台用工算法自动化决策过程的程序保障是否仍然重要呢?这一问题将在下文中得到分析和回答。

(二)人类能动性:以正当程序担保算法自动化决策的合伦理性

在追求实现算法自动化决策所编织的高效与客观决策的美好目标时,我们事实上也需要反思一个基本的问题,即为人类决策者提供必要空间所付出的时间与经济成本,是不是实现程序正义所不可舍弃的根基?

首先,算法自动化决策存在不可避免的技术障碍。算法自动化决策通过统计模式和数据分析进行,遵循着归纳推理的基本逻辑。为了使支持自动化决策生成的机器学习算法能够得出近乎理想的目标函数,算法设计者必须作出机器学习假设空间的设计选择。因此,算法开发与设计者在代码输入的过程中不可避免地会将自身的主观偏见嵌入算法系统,形成算法内置性编码凝视。同时,算法决策的质量还取决于训练数据的质量,而数据本质上是人类观察世界的表征形式,从而必然包含着来源于人类文化的根深蒂固的偏见。因此,在算法自动化决策系统中,偏见的完全摆脱几乎是一项不可能完成的任务。例如,互联网送餐平台依托大数据处理技术和算法自动化技术,将骑手的个人特征(骑手位置、在途订单情况、骑手能力)和客观情况(商家出餐速度、交付难度、天气、地理路况、未来单量)等因素汇总并进行模拟分析,从而尽可能实现订单分配与运力调派的最佳结果。然而,前述绝大部分数据仅是对过去信息的归纳统计,并不能准确地呈现特定情境下的具体劳动表现。如果一个完美的、无偏见的算法系统仅是乌托邦式的幻想,那么保持人类在算法决策中实际控制的重要价值就在于人的不可计算性以及与之伴随的不确定性。相比于机器将偏见内化为不可推翻的先验存在,人类的经验和直觉则具有质疑、反思和推翻既存偏见的现实可能性,从而识别算法自动化决策存在的错误。

其次,人类决策者的道德判断为决策的公平性提供了必要的灵活空间。完全的自动化决策阻止了作为“软价值”的道德判断被纳入决策过程,将复杂的社会问题简化为一个个关键的可确定元素,将一切干扰元素“无情地从决策过程中排除”。然而,复杂的现实生活因素是否能够轻易并真实地转化为机器可读的数据和程序,是值得探讨的。即使算法决策的客观性与一致性符合公平决策所追求的价值目标,算法的“不计偶然性”也违反了正义原则的基本要求。机械地适用一致性的规制意味着排除了个别化的正义。而人的自由裁量恰恰是调和规则有限性与确定性、帮助实现个别化正义的重要工具。例如,互联网用工平台用于衡量平台劳动者表现的计算指标往往更倾向于消费者的主观体验与感受,然而,在有些情况下,消费者对平台劳动者的评分不一定能够准确、客观地呈现劳动者的工作表现与服务质量,而是受到消费者个人在特定情境下的身体与心理状态的影响,但较低的评分直接或间接地构成对平台劳动者的惩罚决策依据。此时,相比于机器决策冰冷的计算逻辑,人类决策者通过在各具体个案中综合运用经验常识、道德判断与价值权衡来行使自由裁量权,能够为实现决策结果的个别化正义提供必要的灵活空间。

再次,即使人类决策者未必提高决策的准确性,人类在算法自动化决策中的参与仍然具有重要的内在价值。从决策者的角度分析,人类决策者的“角色可逆性”为决策结果提供了所有社会成员作为道德共同体存在的理性基础。所谓“角色可逆性”(role-reversibility)是指,决策者能够与受决策影响者互换角色,真正理解受决策影响者的立场和感受。我们无法想象冰冷的算法能够真正地与受决策影响者共情。再负责任的机器与算法也不可能真正地体验人类在失去自由或资产时的遗憾或沮丧的感觉。因此,“角色可逆性”并不仅仅是一种逻辑推理,也是一种心理现实。其旨在通过让参与者在决策过程中时刻想到自己也有可能随时处于“被评判”的境遇,从而使得人类决策行为被理解为一个内部成员平等的共同体对整体社会价值的维护—无论是决策者和受决策影响者,还是其他利益相关者,他们都对决策结果负有共同的责任。或许,互联网用工平台中算法管理的广泛应用,在某种程度上减轻了人类决策者在作出影响平台劳动者就业权利、劳动报酬乃至职业健康安全等方面具体决策时的痛苦感,但恰恰是这种痛苦感本身构成了用工决策合伦理性的内在基础。若在缺乏人工控制与追责的情况下滥用算法自动化决策,设定并追踪对平台劳动者的工作期望,则可能对平台劳动者的权利造成损害。

(三)“被倾听”的意义:以程序价值维护受决策影响者的人性尊严

正当程序和人性尊严问题紧密地交织在一起。其中,保障受决策影响者享有“听证权”(the right to be heard)被视为确保算法自动化决策过程具有正当性和受决策影响者具有公平程序权利的一个基本要素。“听证权”是对行政权力进行程序限制的一项基本要求。无论是美国的正当程序原则还是英国的自然正义原则,本质上都要求通知以及全面和公平的听证,要求个人有权在对其人身或财产可能造成不利影响的行政决定作出之前被听取意见,为当事人提供辩护的机会。“一方不得在没有被倾听机会的情况下遭受人身或财产上的痛苦”,这是英美行政法中的既定原则。正当程序的价值内含着人类面向的理想,这些价值是寻求正义的人们感到被倾听和作为人类被对待的感觉的基础。“被倾听”的主要意义不仅在于使受决策影响者有机会就所涉事情提出自己的观点,从而为决策者提供与当前决定相关的信息,还在于使受决策影响者获得被同类倾听的主观体验。

对受决策影响者人性尊严的维护首先要求尊重一个人作为具有自我反思和自我控制能力的道德行为主体的尊严和责任。康德认为,人类作为有生命、有理智、有情感的存在者,应具有单纯地受理性支配而发出行动并为之负责之自由。因此,人性尊严要求我们“承认个体有权获得对其产生直接和不利影响的行为的理由,有权质疑此类决定,并且作为道德主体,有能力和权利以重要、不可预测、甚或变革性的方式对自己的行为进行积极的控制和决策”。事实上,互联网用工平台对算法自动化决策系统过度依赖的基本假设忽略了平台劳动者作为道德主体的不确定性与动态性,特别是其作为人类能够在与他人的互动中不断重构自我的能力。换言之,在完全的算法自动化决策系统中,那些受到决策影响的平台劳动者被剥夺了对影响自身权益的相关决策进行竞争、挑战或以其他方式参与决策的机会,被侵蚀了人类的自主性和自我决定的能力,被侵害了作为人的基本权利的人性尊严。如果算法自动化决策系统骤然剥夺平台劳动者的就业权利,特别是未经提前通知便径行封闭账户,那么,其显然也没有期待平台劳动者能够通过行使自己的道德决心和勇气来打破过去的习惯和态度,以获得改变自己的机会。

人性尊严还在于,“人们在相互交往中也应本着相互尊重的原则来协调彼此的关系”。正如康德所提出的“人是目的本身”的道德原则,其意味着每一个人都应当被尊重,应当被当作目的本身来对待,而不是被利用或工具化。因此,平台劳动者不仅仅是平台经济发展中的客体与工具,其作为人在平台算法管理中的主观感受也应得到关注并受到尊重。对受算法自动化决策影响的平台劳动者而言,人类决策者的存在能够使其相信并有机会获得来自人类的同情、关心和怜悯。根据关于程序正义的社会心理学研究可知,决策者对受决策影响者在表达过程中的心理需求的感受和关注,能够增强其对程序的公平感和满意度。当事人对程序公平的感知又会影响他们对结果的接受程度。此时,即使结果是有瑕疵的或不利于受决策影响者的,只要受决策影响者认为决策程序是公平的,他们对机构和裁决的满意度就会更高。反之,纯粹的算法管理则消除了人力资源管理中更加人际化和具有同理心的方面,导致平台劳动者丧失对互联网用工平台的信任,从而降低工作的幸福感与获得感。

因此,在对算法自动化决策过程的规制中,人类决策者的干预是用来维护人的尊严与自我决定权的重要工具。拥有算法权力的互联网平台应当从两个方面满足受决策影响者的听证权:一是受决策影响者有对平台决策表达异议与提出申诉的权利;二是受决策影响者有接受由公正的人类决策者进行异议听证的权利。

三、平台用工场景下“有意义的人工控制”的程序性义务内容

通过前文分析,我们可以确知,至少在某种程度上,人类干预能够解决当前平台算法的强大计算能力所无力解决的程序正义问题。在此共识基础之上,“有意义的人工控制”要求人类与人工智能系统之间的功能分配应当遵循以人为本的设计原则,并为人类的选择留下有意义的机会。2025年3月28日,我国发布了国家推荐性标准《数据安全技术 基于个人信息的自动化决策安全要求》(GB/T45392-2025),且明确向个人信息处理者和算法开发方提出了“算法安全人工介入要求”。然而,只有当“有意义的人工控制”概念从抽象的伦理目标转化为具体的法律规则,以法律强制力锻造技术设计,制度化对算法开发者、设计者、使用者的权力约束时,才有可能真正对社会产生积极影响。因此,作为法律义务存在的“有意义的人工控制”还需专注于特定场景下受算法自动化决策影响的对象,识别不同情况下人类参与者需对“什么”进行控制、“何时”进行控制以及“由谁”进行控制等问题,为平台用工场景下算法自动化决策正当程序的实现提供一些妥当的义务准则。接下来,本部分将以算法自动化决策系统的事前、事中与事后的全生命决策周期作为基本分析框架来展开论述。

(一)事前控制:算法自动化决策的一般禁止

在关于平台用工算法决策规制的讨论中,我们始终不能也不应该规避一个元问题:在所有的待决策事项中,是否存在一些重要的事项是自始至终不能全权交由算法来进行决策的?事实上,这一问题并不仅仅是一个价值立场的判断问题,其本质上还是一个损益权衡的问题,即当采用完全自动化决策所造成的社会风险已经远高于其技术运用所带来的效益增进时,或者事前限制算法权力所可能产生的社会成本远低于事后规制算法决策后果所带来的社会成本时,便是人类决策者在算法自动化决策中必须守住必要界限的时刻。因此,无论是欧盟的立法者还是美国的立法者都认可,若某些算法自动化决策系统可能造成过大的社会风险,则其应当受到禁止。但社会制度背景与人工智能规制价值导向的不同导致了人类与算法之间决策权分配的边界设置存在着区别。其中,奉行人权保障理念的欧盟立法自不待言,而事实上,美国的立法者在坚守防止算法权力渗透的“最后防线”方面也正在作出努力。2021年,美国参议院参议员埃德·马基(Ed Markey)提出了《算法正义与在线平台透明度法案》(AlgorithmicJustice and Online Platform Transparency Act),旨在规范在线平台对个人信息的使用,其明确禁止互联网平台使用算法系统剥夺、干扰或惩罚他人行使基于《民权法案》第二章所享有的相关权利的行为。但目前,该法案尚在立法程序中,最终能否成为正式法律仍拭目以待。

为防止对算法自动化技术的不当限制,避免因人类的“算法厌恶”所导致的算法自动化决策使用不足,立法者应当尽量采取一种审慎的态度,对完全使用算法自动化决策所可能造成的风险与损害进行妥当的识别。根据欧盟GDPR第29条以及第29条工作组(Article 29 Working Party)(以下简称A29WP)给出的指引,GDPR第22条第1款规定的“完全脱离自动化决策权”应当被理解为,原则上禁止仅基于算法自动化决策作出对数据主体造成“法律性或类似重大影响”(a legal orsimilarly significant effect)的决策。虽然GDPR没有对“法律性或类似重大影响”作出明确的定义,但其措辞清楚地表明,仅当基于自动化处理的决策对被决策人造成严重、显著的重大影响时,才适用第22条的规定。根据A29WP的解释,“法律性或类似重大影响”的判断需要遵循两个阶层的判断进路:在第一个阶层,需首先判断特定决策是否会发生法律效果,即该仅基于自动化处理的决策是否会实质性地影响某人的法定权利,或者影响某人的法律地位或合同下的权利。在私主体使用算法自动化系统所作出的决策中,最典型的情形是合同终止决定的作出。即使决策结果并没有导致数据主体法律权利或义务的变化,仍需进入第二个阶层,判断特定决策所产生的效果在影响上是否同样显著。为了辅助判断显著重大影响,A29WP列举了如下情形:第一种情形是,显著影响个人的有关情况、行为或选择;第二种情形是,对受影响者产生长期性或永久性的影响;第三种情形是,在极端情况下导致个人被排斥或歧视。

不过,算法治理离不开场景化的规制路径。某一决策结果对于一般数据主体而言或许影响有限,但对于处于特定弱势地位者而言,可能就足以造成重大影响。因此,场景化视角下“重大影响”的厘清有助于为平台算法系统使用者与决策者提供明确清晰的指引,防止对算法决策的一般禁止的不足或过度。判断自动化决策对劳动者是否具有重大影响,应以自动化决策关涉的权益对劳动者生存、发展的重要程度作为实质性判断标准。在一般情况下,在劳动法的适用场景中,涉及劳动者就业机会、工作内容、报酬收入、休息休假、安全卫生等方面权益的事项均会对劳动者的生存、发展造成实质性影响。然而,对“重大影响”的判断还应保持必要的弹性,应根据平台用工的具体情况进行判定,否则,过宽的范围划定可能导致算法技术在促进平台经济和新就业形态发展中的优势无法充分发挥。

从比较法的经验来看,在目前欧洲已经发生的争议中,将剥夺平台劳动者获得工作机会的基本可能性(包括账户被暂停、注销或者不再被提供任何订单)作为对平台劳动者造成重大影响的事项基本成为底线共识。2023年4月,荷兰阿姆斯特丹上诉法院在Uber司机起诉Uber案中所作出的判决为我们提供了一个在平台用工场景中构成“重大影响”的典型情形。在该案中,上诉人为在Uber平台提供交通运输服务的司机。这些司机因Uber的算法自动化系统认定他们存在欺诈行为且违反了Uber平台合同条款的规定而被停用账户,从而无法再通过Uber平台开展工作。法院认为,由于关闭账户的决策持续地影响了这些司机的就业与收入,因而应当认为其构成对这些司机的重大影响,应当遵守GDPR第22条的规定。2024年,欧盟最终通过《欧洲议会和理事会关于改善平台工作条件的指令》(Directive(EU)2024/2831 of the European Parliamentand of the Council of 23 October 2024 on improving working conditions in platform work)(以下简称《平台工作指令》),在第10条关于“自动监控系统和自动决策系统的人工监督”的第5项规定了“任何限制、暂停或终止执行平台工作的人员的合同关系或账户的决定或任何其他同等损害的决定应由人作出”,划定了互联网用工平台算法自动化决策的一般禁止边界。

对于依托平台提供劳动以获取主要收入来源的平台劳动者而言,进入退出平台的机制通常会对平台劳动者的就业权利、既有财产权益以及未来的财产收入造成持续性的全面影响,这也是平台用工场景相比较于其他一般社交网络平台场景的重要区别。因此,对平台劳动者的账户进行限制、暂停或终止构成对其最基本的就业权利的根本剥夺,原则上应当作为互联网用工平台算法自动化决策的一般禁止事项。此时,算法决策最多只能为人类决策提供部分支持,人类仍然享有直接决策权。当然,这种对自动化决策的一般禁止也应当符合比例原则的要求:在面对违法犯罪或者存在危害公共安全和他人合法权益的紧迫危险时,应当允许通过自动化决策系统及时限制或暂停目标账户的使用,从而实现平台劳动者权益与平台其他利益相关方权益以及社会公共利益之间的平衡与协调。

但是,其他何种决策事项属于与限制、暂停或终止账户具有同等损害程度的一般禁止事项范围,仍然是一个待解的问题。除了前述行为,平台往往还拥有降低服务评分、扣款、限制提现、限制接单等其他惩戒权限,对于这些影响骑手权益的算法管理措施的重要性的评判,实质上取决于监管政策在技术安全与经济效率之间的价值平衡。对此,通过平台企业与平台劳动者代表之间的集体协商机制,由直接的利益相关者共同识别和决定与限制、暂停或终止账户具有同等损害程度的一般禁止事项范围,似乎是一种更可行的利益平衡方式。当然,若是订单分配算法、路径规划算法、动态定价算法以及违规行为识别提醒算法等日常高频使用但影响相对有限的决策,则可免于事前的人工审查,避免过度限制影响算法效率。

(二)事中控制:算法自动化决策的流程监督

如果说放任完全自动化决策和对算法自动化决策进行事前一般禁止是一段光谱的两端,那么,对算法自动化决策运行过程施加人工监督或许更能够在发挥算法自动化决策积极效益和不损害受决策影响者合法权益之间实现微妙但基本的平衡。如上文所述,事前一般禁止必须保持必要且审慎的范围边界,才不至于对算法技术所带来的经济效益和生产效率价值造成不当限制。并且,“在算法的运行过程中,平台用工具体场景情形并非一成不变”,“自动化决策风险具有动态性特点”。此时,就需要在算法自动化决策流程中引入人工监督,使人类获得对自动化运行过程的控制权,赋予人工操作员或算法系统监督者随时对算法自动化决策造成的故障进行解决或伤害进行缓解的能力。这种人工控制方式在学术和技术领域主要被称为“人在回路中”(human in the loop)的人工参与机制,其本质上是为了维护人类自主权与问责制,旨在为算法自动化决策系统提供法律保障和质量管控。当然,这并不意味着人工决策就一定会比算法自动化决策更加公平或正确,而是“应当让引发风险的具体决策重新具备人性化特质,通过可理解的人类视角重新评估情境,并作出符合人类认知的新决策”。相比于事前一般禁止,“人在回路中”是人工控制与算法自动化决策的深度融合,它并不要求人工控制者对每一个算法自动化决策结果进行逐个审查,而是在保持算法决策系统自动化运行的前提下,为人类选择留下有意义的机会,赋予人类自由裁量权,从而在算法系统运行发生故障、错误或面临其他意外情况时可以采取积极措施,决定不使用特定决策系统或者作出能够覆盖系统自动化决策的决定。

然而,在互联网用工平台的用工场景中,平台配备的专门监督人员本身并不置身于实际的劳动任务执行情境之中。由于特定情境之动态性与复杂性,所以,仅由互联网用工平台后台运营方履行监督职能仍然可能面临着决策及时性、准确性和安全性的挑战。因此,平台用工场景中的事中控制不仅需要依赖专门的监督人员通过后台数据监测识别异常情况并予以主动干预,更有必要基于“情境自主性”(situated autonomy)的要求,在特定紧急情形下,允许实际执行劳动任务的平台劳动者根据实际情况提前脱离预设的算法决策,保证劳动者在关键情境中对特定决策的自主控制权。以外卖配送平台所使用的配送调度决策算法为例,其在技术上很难妥当解决配送过程中存在的如交通拥堵、商家备餐时间延长和骑手个人特殊情况等各种突发情况。此时,有必要在特定情境下将执行劳动任务的具体决策权交还给处于特定情境中的平台劳动者,根据现实的紧急情况作出更为合理的应对决策。目前,在实践中,部分外卖配送平台已经逐渐在算法系统设计中完善异常上报机制,即在配送过程中,允许骑手在面临因商家、顾客、骑手个人等而产生的突发情况时,将异常情况提前上报,并经平台核实后对其予以责任减免。这实际上就形成了一种“平台劳动者+后台监督员”的合作式人工监督模式,前者在劳动情境中及时识别并上报自动化决策系统无法预估和判断的异常情况,后者则负责对异常情况的真实性以及平台劳动者自主决策的必要性进行核实。当然,这种自主决策权的实现仍然需要技术与制度可行性的双重确保。因此,为保证在算法自动化决策系统运行过程中的人工监督干预可能性,需至少满足两个一般性条件:

一是技术可行性条件。这项条件要求在算法自动化决策系统的开发和设计阶段就将“人机交互”的实现纳入考虑,在用工平台的核心经营业务之外增加非功能性的软件需求,以确保人工监督者拥有必要的信息和工具来行使干预权。在信息方面,算法自动化决策系统并不需要展示其系统运行的内部工作原理,而应当以人类能够理解的方式被开发和设计,准确清晰地呈现决策的结果及其作出特定决策的事实依据。在工具设计方面,根据欧盟《人工智能法案》第14条第1项的规定,高风险人工智能系统的设计和开发应当包括适当的人机界面工具,使其能够在使用期间由自然人有效监督。例如,可以在互联网用工平台的App操作界面中设置暂停按钮、勾选框或其他类似操作机制来中断特定自动化决策系统的运行,以在特定情况下不使用高风险的人工智能系统,或以其他方式忽略、覆盖或逆转算法自动化决策的输出。在平台用工的具体场景中,则应当在平台劳动者使用的工作界面中设置发生异常情况时变更工作行动线路、延长工作完成时间或者直接取消订单等相应勾选操作。

二是制度可行性条件。这项条件不仅要求互联网用工平台应当提供充足的人力资源来对算法自动化决策系统实施监督,同时还要求人工监督员应当具备足够的知识和经验,以及参加相应的培训,以理解和操作高风险人工智能系统。他们应能够识别系统输出中的异常、功能障碍或意外表现,并采取相应措施。正如《平台工作指令》所要求的那样,负责监督的人员应当具备行使该职能所需要的能力、培训以及授权。人工监督员不仅被要求具备理解算法的基本能力,还被期待应当对算法自动化决策运行可能产生的影响作出合理的道德反应。此外,如果人工监督员因实施监督职能而遭遇不利对待,便会在心理上抗拒对算法自动化决策施加实质影响,最终使人工监督沦为“橡皮图章”。对此,《平台工作指令》要求数字劳动平台对履行监督职责的人员提供相应的保护,使其免受解雇、纪律处置或其他同等的不利待遇,特别是增加人工监督员的反报复机制,防止劳动者仅因行使自主决策权而遭受扣分、罚款等不利对待。

(三)事后控制:算法自动化决策的异议申诉

事后异议申诉机制的意义在于保障受决策影响的平台劳动者能够就已经作出的算法自动化决策结果提出质疑或申诉,并申请获得独立的人工审查。不同于人工监督,异议申诉机制的人工审查是一种经受决策影响者提出要求而启动的被动纠偏机制,其所作出的决定是对算法自动化决策系统运行结果的纠正,不再构成算法自动化决策系统的决策,从而为算法自动化决策提供了一种特殊的、额外的保障。即使严格遵循了前述事前与事中的人工控制,我们也很难保证,经算法自动化决策系统作出的决定不会因其固有局限性而导致受影响者的权益被侵犯。在大多数情况下,平台用工场景中企业对劳动者所作出的扣款、扣分等处罚往往是小额的。此时,平台劳动者仅通过普通司法程序获得权利救济,显然是过于昂贵和迟缓的,难以成为一个可行的选择。为了保留工作机会,多数平台劳动者可能会选择隐忍,只有在扣分总数已经对工作机会造成实质性影响,或者扣款总额已达到相当的比例或数额后,才会选择通过仲裁、诉讼等方式维护自身权益。然而,对于超大型互联网用工平台而言,即使是非常低的决策错误概率也会造成大量平台劳动者的实质性权利受损。在算法自动化决策为互联网用工平台带来效率与效益增长的同时,在普通司法程序中,受决策影响者为质疑特定决策需要耗费昂贵的时间与经济成本。这种算法自动化技术使用者的获益性与受决策影响者权利救济的复杂性是不相称的,从而造成受决策影响者获得权利救济在程序正义方面遭遇“瓶颈”。

如果即使采用最佳技术设计的算法系统也可能在特定情况下失败,且这种失败是不可避免的,那么,我们至少可以通过事后的人工审查为受决策影响者提供更便捷的救济手段,而无须诉诸司法程序,从而减少受决策影响者获得权利救济的成本和时间。因此,在平台内部建立一个正当程序机制来为平台劳动者提供事后权利救济,也应当成为平台算法自动化决策治理中的关键环节之一。作为欧盟关于自动化决策的法律规制框架中的关键条款,GDPR第22条第3条赋予了数据当事人获得人工干预、表达观点和对决定提出异议的权利。2020年欧盟《数字服务法》(Digital Services Act)第17条和第20条对数字服务提供商特别是超大型平台设置内部申诉处理机制作出了明确的义务要求。2024年最新通过的《平台工作指令》第11条也对平台的“人工审查”(human review)程序提出要求。

事实上,我国实务界也已经认识到了对平台用工算法进行程序控制的重要性。2021年颁布的56号文的第10条已经明确提出要“指导企业建立健全劳动者申诉机制,保障劳动者的申诉得到及时回应和客观公正处理”。2023年11月,根据劳动法律法规和56号文,人力资源和社会保障部办公厅印发《新就业形态劳动者休息和劳动报酬权益保障指引》《新就业形态劳动者劳动规则公示指引》《新就业形态劳动者权益维护服务指南》,进一步对新就业形态劳动者申诉机制的常态化设立与申诉渠道和程序公示作出指导。然而,人力资源和社会保障部办公厅发布的指引与指南仅属于行政指导行为,并不具有法律效力,不能作为行政执法的依据。同时,该指引与指南仅规定平台企业应当建立健全申诉机制,但对于如何建构行之有效的、符合程序正义标准的程序机制,尚没有提供明确的规则。

目前,在实践中,很多平台劳动者在遭遇扣分、扣款、封号等平台处罚后,往往无法从平台内部获得申诉和恢复权益的机会,只能将争议的焦点回溯到“平台用工是否构成劳动关系”的问题上,从而获得《劳动法》《劳动合同法》中关于继续履行劳动关系或者支付赔偿金的请求权的支持。然而,一旦劳动关系无法确认,后续的相应请求显然也难以得到支持。传统劳动关系认定方法难以应对数字化变革带来的冲击,对从属性的判定变得愈加复杂,劳动者很难通过劳动关系的认定获得算法管理下的权利救济。即使互联网用工平台设置了申诉机制,在缺乏明确义务规则的情况下,其运行效果和质量也难以得到确保。例如,对于平台劳动者的申诉是否必须由人工审核员介入审查以及人工审核员应当在哪一阶段介入审查,平台企业接到申诉后应当在多长时间内作出回复以及应当以何种形式作出回复等等,均可由平台企业自主决定。由此可见,如何确保平台劳动者能够通过适当的正当程序获得权利救济,是平台用工算法治理中一个重要但尚未形成充分共识的问题。

结合比较法经验与域外研究中关于平台正当程序保障的一般要求,我们或许可以尝试为平台劳动者的权利救济机制提供一些最低限度的程序准则。

首先,互联网用工平台必须至少建立一个常设的、易于操作的申诉启动机制,使平台劳动者能够便利地通过在线操作、电话投诉等方式向平台提出针对决策的异议,并有获得补救的可能性。一旦互联网用工平台作出影响平台劳动者具体权益的初步决定,即使是限制或封闭账号的决定,平台劳动者仍应有权获得关于启动申诉机制的信息与渠道,向平台充分表达自己对特定决策的不满事由以及自身主张。

其次,互联网用工平台应当建立人工审核员及时介入机制,保证在受决策影响的劳动者提出人工介入要求时,能够及时介入对异议申诉的审查处理。基于前文的分析,通过人工审核员的介入,不仅能够识别算法自动化决策的技术性错误,将人类的软价值纳入自由裁量的必要灵活空间,同时也能够通过与受决策影响的劳动者进行沟通,缓解劳动者对平台算法的不信任感,促进争议有效化解。当然,基于企业经营性的考虑,平台企业往往会将程序性资源优先投给最有价值的平台用户,即消费者一方。对此,有必要明确要求平台企业为涉及平台劳动者重要权益的事项配备足够的人工审核员,并提供相应的培训和充分的处理权限。

再次,申诉机制应当建立在透明度和及时性的基础上,这是权利救济机制建构的基本要求。无论是在依托算法自动化决策作出初步决定时,还是在经人工审查的申诉决定作出之后,平台企业都应当积极履行事先通知和说明理由的义务。此时,一个简单、通用的标准化通知与说明是不够的。通知和说明应当尽可能精确和具体,使受决策影响者能够轻松、准确地理解特定情况下具体决定的作出主体(无论是算法还是人工)、规则依据以及考量事实。同时,通知还应当包括受决策影响的劳动者可以对决定提出异议的程序机制、时间限制以及其他相关的程序性要求,这是受决策影响的劳动者寻求权利救济的基础,也有利于为受决策影响的劳动者在后续的司法救济机制中提供举证便利。此外,程序的及时性也是影响受决策影响的劳动者程序正义感知的重要方面。平台企业申诉处理程序的时效性应当符合比例原则的要求,优先为对平台劳动者作出的最严厉处分提供申诉处理。在平台用工场景下,如果涉及对平台劳动者平台账户的关闭或限制以及劳动报酬的较高比例扣减等情况,应当在处理的及时性上给予优先考虑,并设置相对明确的回复与处理期限。

四、平台用工场景中引入“有意义的人工控制”的机制建构

尝试将平台用工场景中“有意义的人工控制”予以制度化,是一项系统性的工作。除了证成“有意义的人工控制”作为互联网用工平台程序性义务的正当性和必要性,以及“有意义的人工控制”作为程序性义务的具体内容,还有必要进一步完成制度化设计中的体系性机制建构,实现法律调整机制的精确性与安定性,确保程序性义务规定的有效实施,切实将“以人为本”的人工智能与算法善治纳入法治的轨道。因此,本部分将围绕适格义务主体的合理范围、义务违反的法律后果以及配套的保障机制等相关问题展开进一步的具体探讨。

(一)程序性义务主体的适格范围

当我们能够就人类控制者可以也应当对互联网用工平台的算法自动化决策运行发挥积极作用这一点达成基本共识时,也必须意识到,引入“有意义的人工控制”作为平台企业应当履行的法定义务需要以平台企业额外的成本负担为代价。这既包括限制自动化决策使用所造成的成本节约功能的受限,也包括为实现“有意义的人工控制”所直接付出的技术设计开发成本与培训、配备人工控制者的人力成本。鉴于平台企业的资金规模、市场份额、控制能力以及技术与财务条件等因素的巨大区别,僵化适用“一刀切”式的法定义务显然是不现实的。因此,法定程序性义务的设定水平与强度,应当与平台企业的风险承担能力、成本承受能力以及平台通过技术进步所获得的收益形成基本的匹配与均衡。

首先,可明确将设立有人工审核的异议申诉机制作为所有平台企业应当遵守的最低限度法定义务。一方面,这是《个保法》第24条第3款所规定的“脱离完全自动化决策权”的基本要求,通过为受决策影响的劳动者提供异议申诉的“事后风险消弭机制,为算法决策的程序正当性奠定了基石”,从而为受决策影响的劳动者的权利救济提供平台内部的兜底机制,尽可能在效率与安全之间实现平衡;另一方面,从合规成本的角度分析,经个别申请而启动的事后审查机制所耗费的人力成本相对可控,也能够将对中小平台企业所造成的运行负担降至最低。同时,在人工审核的方式上,也可以在保证及时性和客观公正性的前提下,允许平台企业结合自身实际规模与负担能力进行灵活调整。2024年11月12日,中央网络安全和信息化委员会办公室秘书局等四部门联合印发《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》,明确将“申诉渠道”作为“防范盲目追求利益侵害新就业形态劳动者权益”主要任务项下的专项治理清单内容之一,并提出如下两项要求:一是平台应向用户提供申诉和公众投诉、举报入口,及时处理用户反馈;二是平台应说明申诉处理流程、反馈时间等信息,公开近期申诉成功案例,留存处理日志,配合有关部门的监督检查工作。

其次,可借用“守门人”平台的概念内涵与识别标准,划定平台企业中应当履行更严格程序性义务的适格主体范围。随着数字时代的到来和数字市场的繁荣,2022年11月生效的欧盟《数字市场法》(Digital Marktes Act)(以下简称DMA)在立法上引入了“守门人”的概念,确立超大型数字平台(very large online platforms)在日常运营中应当承担的一系列积极与消极义务,以及义务违反后所应当承担的法律后果,保障数字服务用户的基本权利与数字安全,促进公平与开放的数字市场。在数字领域,数字守门人关注的是获取和控制互联网信息的权力,以及由此与用户之间形成的不平等关系。超大型平台与其他类型平台在劳动用工方面的核心区别在于,其业务规模、用户基数、数据处理能力、算法应用的广度和深度以及对社会经济的影响程度,会对数量庞大的平台劳动者的权益产生更深远的影响。因此,在平台用工算法治理中,应当要求使用算法自动化决策的超大型平台承担与其“守门人”角色相匹配的加重义务,履行较高标准的程序性义务并负担与之相应的成本。

在守门人的认定方面,DMA提出了定性加定量的主体识别方法。在定性方面,数字守门人的认定应当符合如下三个实质性标准:一是对内部市场有重大影响;二是提供核心平台服务,是商业用户接触终端用户的重要途径;三是在其业务中享有稳固和持久的地位,或在可预见的不久的将来将享有这种地位。同时,DMA第3条还进一步提供了年度营业额、平均市值以及月活跃和年活跃终端用户数量等主要量化标准,用于提高法律适用的确定性。目前,欧盟的守门人监管模式已经对我国互联网平台监管产生了积极的影响。2021年10月,中国国家市场监督管理总局曾发布《互联网平台分类分级指南(征求意见稿)》与《互联网平台落实主体责任指南(征求意见稿)》,希望增强监管的针对性与有效性,对互联网平台进行分级分类管理,以用户规模、业务种类、经济体量和限制能力为分级依据,结合具体的判断标准,将互联网平台分为超级平台、大型平台和中小平台,并要求落实互联网平台的算法规制与劳动者保护责任。但目前,这两份征求意见稿仍然失之过宽,并没有对不同类型、级别的互联网平台进行针对性的义务设置,也没有关注平台用工场景中程序正义的必要价值。

(二)程序性义务违反的法定后果

为了确保义务的履行得到充分保障,必须有明确的法律后果作为支撑。在平台用工场景下的法律关系结构中,如果平台企业违反了法定的程序性义务,则有可能导致公法和私法上的双重法律后果。

首先,在公法层面,平台用工场景下对程序正义价值的追求,已经超越了纯粹私法关系的范畴,具有维护社会公共利益的必要价值。如果允许作为平台用户的平台劳动者迫于压力以合同的形式放弃正当程序权利,那么这种个人的“自由”选择就可能对整个社会产生链条式的“滑坡效应”,从而导致更多弱势群体的基本权利受到损害,进一步侵蚀社会公众对算法技术发展与应用的信任基础。因此,平台企业的法定程序性义务需要以公法上的国家强制力作为担保,不应允许以平台劳动者对正当程序权利的事前放弃作为豁免法定程序性义务的正当理由。同时,对于平台企业违反法定程序性义务,还应当设立相应的行政处罚措施,追究其公法上的责任。由此,通过行政处罚与行政监管的威慑力,能够积极实现重要法益的事前保护与数字时代风险预防的制度目的,克服民事权利救济的滞后性滞碍。此外,行政机关也可以通过行政法上的激励机制,推动企业主动以行政监管的标准来识别、评估和预防行政制裁风险,积极制定并实施符合平台用工算法善治的具体措施,促进平台经济健康规范发展。

其次,在私法层面,平台企业对公法义务的违反也有可能对其与平台劳动者之间在私法上的权利义务关系产生影响。

一方面,由于平台劳动者与互联网用工平台或其合作方之间的法律关系定性复杂,因此,部分平台劳动者与平台企业或相关企业建立了劳动关系。此时,劳动者仍可依据相关劳动法律法规寻求权利救济。例如,平台在未事前通知、说明理由或提供申诉途径的情况下封闭劳动者平台账号,属于违法解除劳动关系的行为,劳动者当然可以依据《劳动合同法》的规定要求平台企业继续履行劳动关系,即恢复劳动者平台账号以及接单功能,或者依法支付违法解除劳动关系的赔偿金。

另一方面,将“有意义的人工控制”作为平台应当承担的法定义务,能够为更多未与平台或相关企业建立劳动关系的平台劳动者提供请求权基础。平台企业在使用算法自动化系统作出决策时,如果违反了法定程序性义务,那么,依据《民法典》第153条的规定,可能对法律行为的效力产生影响。当然,并非所有违反强制性规定的民事法律行为都将归于无效。应当结合特定算法自动化决策的实质内容正当性以及对受决策影响的平台劳动者权益的影响程度等因素,基于比例原则进行审慎判断。算法自动化决策不应因其采用自动化手段而被剥夺法律效力或可执行性,否则可能对算法技术发展所带来的社会和经济效益造成过度限制。当然,平台企业违反法定程序性义务的行为还有可能构成对合同附随义务的违反或不作为方式的侵权,此时,可依法追究平台企业的违约或侵权责任。因此,制定法对平台企业程序性义务的明确规定可以直接构成合同附随义务或者法定作为义务的来源依据。

(三)程序性义务履行的合规审计

《个保法》第54条和《网络数据安全管理条例》第52条第2款均对个人信息处理者的个人信息保护合规审计义务作出了规定。2025年2月12日公布的《个人信息保护合规审计管理办法》(以下简称《管理办法》)为个人信息保护合规审计义务的落实提供了细化指引,并在作为附件的《个人信息保护合规审计指引》(以下简称《指引》)的第9条第4项将“是否向用户提供保障机制,以便个人通过便捷方式拒绝通过自动化决策方式作出对个人权益有重大影响的决定,并要求个人信息处理者就通过自动化决策方式作出对用户个人权益有重大影响的决定予以说明”明确纳入审计的范畴。这至少从行政主管部门的层面肯定了个人信息处理者“完全脱离自动化决策”的义务属性。同时,在审计的启动机制方面,《管理办法》第5条明确了国家网信部门和其他履行个人信息保护职责的部门可依职权要求符合特定情形的个人信息处理者启动合规审计,扩大了算法自动化决策审计的启动可能性,为完善行政监管提供了重要支持。但《指引》第9条的要求仍然相对抽象,虽对“人工控制”的有无提出初步要求,但无法确保真正充分发挥“有意义的人工控制”在算法自动化决策中的程序价值。

作为一项复杂的社会技术系统,“自动化决策的功能只有在人、技术和环境之间存在协同作用和合作时才能得到优化”。自动化决策算法的合规审计不能仅关注技术层面,还需要对其所涉及的社会关系主体之间的权利义务内容进行审查。在平台用工场景中,未来针对适格主体的算法审计应当将实现算法全生命周期中“有意义的人工控制”的具体程序性义务转化为明确的合规审计指标,形成系统化、可操作的审计规程。例如,虽然在技术设计上将人类纳入算法决策系统中可以实现人类决策对算法自动化决策的覆盖,但人类在人机交互系统中实际拥有多少控制权力,则完全取决于在实际操作过程中如何实施保护措施以保障控制权的有效行使。为审计特定互联网用工平台在算法自动化决策过程中是否实现了“有意义的人工控制”,除了审核在App及后台操作界面中是否存在如暂停按钮、勾选框、对话栏等人机交互的技术性操作机制外,还应当将互联网用工平台是否为有效开展人工监督与审查配备了充分的人力资源,是否为人工监督员、审核员以及平台劳动者控制算法自动化决策系统提供了足够的权限、知识与培训作为合规审计的具体指标。当然,由于在平台用工场景下对互联网用工平台、平台劳动者及其企业内部劳动者之间权利义务内容的审核不可避免地涉及对劳动法这一部门法的理解与适用,因此,该场景下的算法自动化决策合规审计离不开不同部门法之间制度目标的内在协同,同时需要加强个人信息保护行政部门与劳动保障行政部门之间的合作与联动。

结语

在算法所引发的社会技术系统变革中,人类控制者应当在何种情境下介入干预以及以何种方式实施干预,是一个既充满法哲学思辨又需要精确化操作规则的法律问题。诚然,程序性问题的改善并不能解决平台用工场景下的所有问题,“有意义的人工控制”也无法成为算法自动化决策系统风险防范的万能灵药,但是,我们不能据此否认平台用工算法程序正义的价值与意义。在平台用工的算法治理中,程序正义维度的重要性与其在研究与实务中受到的关注度并不匹配。对程序正义的维护和追求不仅有利于实质正义的实现,本身也具有维持人类共同体纽带与保障人性尊严的独立价值。实际上,算法治理中的程序性方案或许比实体权利义务的管制更具有制度可行性。平台用工场景下的算法治理并不能由任何单一的规制手段来界定与解决,引入“有意义的人工控制”也仅是保护受决策影响的劳动者免受自动化决策伤害的更广泛法律框架的一部分。我们应当充分综合算法透明、算法解释、负责任的算法以及有意义的人工控制等不同治理理性的功能与作用,最终促使技术发展能够有利于提高全社会的整体福祉。不过,当我们尝试将人类因素引入算法自动化决策系统的全生命周期时,或许还会出现新的伦理与法律问题,对此,仍有必要持续予以关注与解决。


来源:《法制与社会发展》2026年第1期



文献数据中心|DATA CENTER

© 2009-2026 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc