论文精粹|INFORMATION
寿媛君:数字技术与预防性法律制度的体系化构建
管理员 发布时间:2026-01-11 16:15  点击:17

摘  要:数字技术赋能预防性法律制度有助于更好地预防社会风险,但亦会衍生技术治理风险,呈现赋能与技术异化的悖论。为避免出现大规模风险,预防性法律治理应成为新型法治形态。在构建预防性法律制度过程中,会面临静态法律规则与动态技术演化的矛盾,法律制度设计的静止性、碎片化难以适应数字技术的快速迭代,与对数字风险的预防产生抵牾。数字技术反向侵入预防性法律制度,算法决策偏差归因困境与技术应用的不透明性使很多法律实施过程难以被追溯,导致法律制度的风险预防功能被悬置。面对预防性法律制度与数字治理之间的嫌隙,预防性法律制度亟需建构三个维度的协同体系,分别从纵切面形成制度与技术的层级化体系,横切面实现程序与实体的勾连体系,同时构建以数字平台为中心的责任体系,最终实现秩序与自由动态平衡的数字正义。


关键词:数字治理;风险社会;预防性法律制度;体系化;正当程序


引 言


在数字技术风靡之初,人们把自己当作消费者。然而,随着人类行为日益被预置的代码逻辑结构化,以事后救济和惩罚为主要特征的传统法律制度在治理层面显得力不从心,社会需要构建一个更具前瞻性的法律制度体系以更好地预防各种社会风险。2020年11月,习近平总书记在中央全面依法治国工作会议上发表重要讲话,明确提出“完善预防性法律制度”的要求,强调需“推动更多法治力量向引导和疏导端用力”。这一要求为构建预防性法律制度,推进国家治理体系和治理能力现代化指明了方向。

数字技术的发展为整个社会进一步构建预防性法律制度提供了有力的支撑。在大数据背景下,预防已经从一项法律指导性原则发展为新型的法治理念。数字技术嵌入国家治理,能够大幅度提升法律制度的预防性功能。通过数字技术的赋能,法律调控的重心可实现由“裁断行为后果”向“塑造行为逻辑”前移。数字技术可以提升预防性法律制度风险治理的效能,但亦存在以“风险预防”为名导致权力异化的可能,作为预防社会风险的数字技术自身也会衍生出新的风险。为了更好地利用数字技术,推进社会治理,世界各国不断迭代更新数字法律制度以预防数字时代的潜在风险。我国先后颁布《网络安全法》《数据安全法》《个人信息保护法》等;欧盟制定并实施《通用数据保护条例》《人工智能法案》;美国颁布了《开放政府数据法案》《数据隐私和保护法案》等。相对于以利益受损的事后应对为根本考量的传统法律制度,上述数字领域的法律制度是以保护国家利益和数据主体利益为基本考量,预设应用数字技术的行为模式,旨在确保数字技术应用的安全、透明与可信赖,防止数字技术给国家、社会以及个人带来风险。

如何合理利用数字技术推动预防性法律制度的构建,同时降低数字技术衍生的新风险,是本文关注的主题。本文将梳理数字技术赋能预防性法律制度的机理,分析技术逻辑与法律规范逻辑在风险预防中给预防性法律制度带来的难题及其原因,探索性地提出数字治理与预防性法律规范体系性构建融合的可能方案。


一、数字技术赋能预防性法律制度的动因


相较于传统社会制度场景具有的地域性、权力中心化特征,数字技术法律制度建构的场景呈现出全球化、分权化、融合性等特质,随之出现的数据泄露、算法黑箱等新型风险亦可能制造大规模、系统性的混乱。秩序的功能则在于清理各种混乱。系统性地梳理数字技术衍生的风险是重构新秩序的前提。

(一)数字技术与风险形态变迁

数字技术推动着现代社会朝着日益技术化、日益量化与日益系统化的方向发展。一方面,技术进步极大地提升了生产效率、生活质量;另一方面,数字技术的多种类型与多元应用场景使风险跨领域交织叠加,呈现结构性、日趋复杂化等特点。数字技术包含数据、算法与算力三重要素。其中,数据是描述事物、感知世界的基础材料。将现实转变成数据即实现对社会的“数据化”记载,使社会记录、分析与重组事物成为可能。算法是推理、计算和处理数据的一系列计算方法,它以代码的方式细致入微地告诉计算机按照什么样的指令执行任务。算力则为数据处理和运用提供实现条件。风险已成为现代社会和现代性的一个基本特征,与传统风险的地域性、承担风险主体的有限性比较,数字技术可消弭虚实交互的界限,引发风险的嬗变,呈现系统性、泛在性、建构性等特点。数字技术向现实社会渗透,在一定意义上实现了毕达哥拉斯所说的“万物皆数”的目标,促进了万物互联的虚拟空间建构。在数字背景下,“赛博空间”和“物理世界”之间的界限逐渐模糊,智能手机、佩戴式智能装备、智能家电、智能汽车等增强了人际间、人机间以及机器间的连接性,人们可自由地在虚拟世界和物理世界来回穿梭。由数据组成的信息具有易复制、易扩散的特点,传播成本变得更加低廉,极大地提升了生产效率,方便了人们的生活。但这同样预示着在数字技术背后可能潜藏着数据安全风险、数据使用伦理风险以及算法伦理风险等,万物互联亦会导致上述风险叠加、蔓延,引发更复杂、深刻的危机。当前社会处于一种信息高速传播的状态,受法律保护的特殊信息一经扩散,就可能导致不应有的后果,而事后制裁的应对方式不仅难以及时止损,而且面临治理成本高昂的困境。比如,数据泄露可能同时触发侵犯隐私权、财产权乃至国家安全等风险,采取事后应对的方式,难以消解风险演化的可能性。

(二)风险形态变迁驱动法律的预防需求

现代社会充满不确定性,但这种不确定性能以人为选择的方式加以预防。数字社会风险形态的超时空性、动态性、系统性意味着必须采取前瞻性的措施以预防大规模风险,因而构建和完善预防性法律制度成为必然。数字技术将物理世界与虚拟情境通过数据互联,重塑了风险演化路径,凸显出预防的意义大于治理的意义。首先,风险的超时空性使风险隐匿于虚拟空间;其次,风险的系统性表现出“牵一发动全局”的可能性,通过虚实交互节点实现跨界穿梭,最终演化为大规模风险;最后,风险的“回旋镖”效应使风险制造者亦能成为风险承担者,风险形态的变迁趋势将增加应对风险的成本。因此,以“防患于未然”为目标定位的法律制度设计更具有合理性。以诉讼为例,我国的国情决定了需要预防性法律制度有效抑制大量纠纷的产生。我国有14亿人口,大大小小的事如果都打官司,社会必然不堪重负。数字技术增进了信息沟通,也进一步凸显了发展的不平衡。随着社会结构变迁,人际交往日益繁复,纠纷必将增多。单纯依赖应对性诉讼解决纠纷,既不现实,也不符合效率原则。因此,需要在事后回应的制度基础上适当延伸、强化和完善事前预防性法律制度。


二、数字技术赋能预防性法律制度的可行性


数字技术参与社会决策的程度日益加深,具有目的驱动的特点,突显了基于经验归纳生成法律规范的局限性。作为现代化的新产物,数字技术的预测能力与精确计算能力将赋能预防性法律制度,从而有效预防新型风险。

(一)传统治理的局限性

传统法律制度建构于物理时空维度,通过时间、空间等外部要件即可判定规制的实效性。数字技术在一定意义上解构了时间与空间,建构了虚实交互、跨界共生的复杂系统,使法律关系的主体、行为、内容等,部分呈现出虚拟化、算法化等特征。这种变化使得传统法律规范在制度建构以及司法实践中暴露出不适应性。

完整的法律规范由“假定—行为模式—法律后果”几个要素组成,在自发秩序与理性设计的调试中形成可预测法律后果的机制;其核心在于,法律制度不强人所难,要求人们应做的事是能实现的事,否则就是立法的失败。然而,传统的法律制度难以预见、界定数字技术带来的主体虚拟化、内容算法化、行为跨界化的法律关系。数字技术建构的“技术环境”既依赖传统法律制度、社会惯习,亦设定了技术“架构”(Architecture),能够通过技术架构有效预防违法行为。比如,在著作权领域,数字技术将复制成本降至趋于零,在此背景下,传统的以成本差异识别侵权行为的方式被瓦解,取而代之的是,代码以预设正向积极的行为模式排除消极行为造成的法律后果。在数字背景下,基于“违法—制裁”的传统法律规范在很大程度上可能会被悬置,传统法律制度在纠纷解决中面临着效能困境;数字技术的应用一定程度上可以在事前预防违法行为的发生。司法活动根据法律规范确认法律责任,而法律责任认定和归因逻辑主要围绕行为与结果之间的因果关系展开。法律因果关系肇源于对客观事实的准确把握,并在逻辑演绎的过程中实现法律的归因与归责;法律因果关系的确认是一项事实性命题,强调人的主观意志与客观行为之间的联系,以及危害行为与损害结果之间的因果关系。然而,数字技术建构的万物互联系统催生了多因一果的因果链条,导致依靠传统的归因逻辑难以清晰地界定责任主体。比如,当算法技术介入侵权场景时,技术本身既不是法律规定的行为主体,亦不是责任主体,如此一来,必然导致责任归属的泛化和虚化。

(二)数字技术可满足预防性法的预测性需求

预防性法律制度的核心在于通过前瞻式的制度安排重构治理秩序,将事中干预或事后应对的治理模式前移为事前塑造行为的治理模式。数字技术的算法预测模型通过分析、整合数据资源,可有效满足预防性法律制度的前瞻式治理需求,显著强化风险识别的精准性。

数字技术能揭示系统性风险内部要素的碰撞、涌动的微观动态,为观察、计量人们之前一无所知的新事物,解析人的行为模式和社会运行机制,捕捉组织内的行为互动模式,提供了焕然一新的工具,为人类探求复杂的社会问题提供了统计学意义上的确定答案。

数据分析技术、机器学习技术等预测工具基于高质量的数据与适配场景的算法模型,可以获得统计学意义上的高质量的预测结论。具体而言,数据可分为结构性数据与非结构性数据。结构性数据可直接被计算机解析,比如,法院每年办理的案件数量、被告人人数、案件类型等可以被制成二维表。非结构性数据,通常可根据数据类型、样本规模、求证问题,选择适配的算法模型,设定数据类别型变量与数值型变量,获得一个统计学上的结论。除分析数据,机器学习技术通过监督学习与无监督学习实现预测功能。机器学习作为人工智能技术的重要子集,是一种通过算法和数学模型使计算机或机器从数据中学习并作出预测或决策的技术。通过创建算法模型,并将大量数据输入模型,算法模型可为我们输出特定结果。比如,在反电信诈骗的应用场景中,计算机通过学习历史诈骗数据,建立特征模型来识别欺诈模式,再利用诈骗数据信息设计多模态模型,搭载人工智能智能体,可以有效拦截可能的诈骗信息,实现犯罪预防。所谓的监督学习,是计算机通过标注数据集建立“输入—输出”模型。常见的监督学习有回归分析,它能够分析自变量与因变量之间是否具有统计学意义上的显著性,确定自变量变化是否、如何与因变量之间产生相关性。监督学习技术被广泛应用于量刑预测等领域。而无监督学习,则是从无标签数据中自动发现隐藏的模式、结构或规律,能避开人工标注的主观干扰,适合探索性分析。比如,通过分析犯罪嫌疑人的行为模式、社会交往、作案手段等特征,可将人划分为不同的群体,辅助公安机关、司法机关更好地识别犯罪类型,把握犯罪行为的发展规律。

预防性法律规范以“治未病”为核心理念,通过制度化的前瞻技术干预阻断风险向危险的转化,其效能取决于风险识别的精准性与预测模型的可靠性。数字技术的应用超越了传统的经验观察,能更精准地揭示潜在风险,捕捉风险演化规律,为预防性法律制度的构建和实施提供技术支撑。

数字技术与物理世界的深度嵌套与广泛应用重塑着社会运转模式,驱动着风险治理形态的深刻变迁。数字技术以虚拟的“字节”单位,将社会的物理秩序转化为虚拟的数据洪流并进行记载,这些字节可超越时空局限存在于虚拟空间;但技术迭代带来了新型风险,其隐蔽性增强,传导机制因“万物互联”亦趋向复杂,这超出了传统风险治理理论框架所能容纳的范围,凭借经验观察或初级的风险评估方式处理问题,必然出现方枘圆凿的局面。具体而言,数字技术的应用本身蕴含着技术风险,比如算法技术的局限会导致算法偏见。当数字技术嵌入社会组织,会诱发数据泄露、个人信息保护失范等安全风险以及责任主体泛化等组织风险,导致隐私泄漏、网络攻击等问题频发。上述种种风险相互交织,可能呈现叠加放大的趋势,对人们的生活与公共秩序等都构成潜在的威胁。

面对数字技术衍生的新型风险,利用算法模型的预测功能治理数字技术带来的隐蔽的、系统性风险成为破局的关键。数字技术的互联性增强了社会连接,为信息流动提供了便捷的流通渠道,因此,应当持续优化和完善预防性法律制度,以充分发挥数字技术敏锐的洞察能力与精准的预测能力,运用算法模型揭示隐蔽的社会风险,提高反馈和治理风险的效能,推动数字技术识别风险与法律制度预防风险相互增益的良性循环。

(三)数字技术契合风险预防的经济理性

现代社会是风险弥漫的社会,但并非对所有的风险都需要进行预防,亦非所有的风险预防都要达到零风险的标准。预防性法律制度设计需要遵循比例原则,既要防止法律规制的虚无,亦要避免法律规制的绝对化。

1.预防性法律制度的构建应符合“成本—收益”原则

风险预防的目标是阻断风险演化链条,防止风险升级为损害,但过度预防会导致权力扩张或权利受损。为有效平衡超大规模风险的不确定性与保障权利主体的利益,预防性法律制度的构建应当遵循“成本—收益”原则,防范过度预防导致社会权利和自由被消解。

风险治理之所以应遵循“成本—收益”原则,原因在于,平衡风险防控的成本与效能,有助于在复杂、变动的风险环境中实现科学、高效且公平的社会治理目标。如前所述,新型风险具有隐蔽性等特点,不考虑治理成本的风险预防会抑制技术创新,而一味地追求技术带来的社会治理红利会危及公共秩序与安全。此外,“成本—收益”分析通过对现存风险的实际后果以及降低风险的效应进行计算,可以有效缓解人们对一个统计学上很小风险的恐惧。因此,风险预防应以“适当、必要且均衡”为原则,采取相应的预防措施。准确判断因果关系是风险预防制度符合“成本—收益”原则的关键;因果关系越明确,法律对风险的预防就越有成效。

2.技术赋能“成本—收益”的帕累托最优

法律规范要求将风险评估机制落实到具体场景中,而复杂、系统的风险与可能的损害结果之间的合比例性判断则超出了“生物算法”的能力,这就需要采用协同数字技术以实现风险预防的帕累托最优。人们常常依赖经验法则来感知风险,这种判断方式容易导致人们在不应当恐惧时感觉到害怕,在应当恐惧时却无所畏惧。针对风险的内生性,人们常常是在风险不确定(后果可以识别,但不知道概率)而不是风险确定(后果可以识别,各种后果的概率确定)的情形下采取行动。当人机共生时代来临,算法技术可以部分代劳“快思考”,迅速告诉人们“答案是什么”;而“慢思考”解决的是“问题是什么”。在风险预防中,“慢思考”可用来权衡和解决价值冲突。算法模型可以在预设的价值取向框架内完成人在短时期内不可能完成的事情。尽管算法模型主要基于统计推断挖掘变量间的线性或非线性关系,难以满足风险预防所需的因果机制辨识要求,但这些技术的应用可以绕过探索因果关系的瓶颈,揭示与社会风险的相关性,优化风险预防的策略。

数字社会的风险治理应遵循帕累托最优原理,在不损害其他目标的前提下,实现风险防控与创新发展的平衡。面对数字时代不确定性的风险和损害时,法律能做的就是为进一步达致帕累托最优提供规范支撑。然而,数字风险的迅速迭代与跨领域传导机制,会导致风险预防和治理变得更加复杂(比如数据泄漏带来的实体经济利益受损),静态的法律规范难以适配风险治理需求。未来的法律治理制度需要依托算法模型,在安全、效率、成本等多个冲突目标之间进行合理选择,动态地实现最优化的风险防控效能。


三、数字技术如何赋能预防性法律制度的构建

    

预防性法律制度的正当性源自对风险的及时、准确预测与提前防控。基于预防性法律制度的全周期分析思路,考察数字技术嵌入预防性法律制度的效果,会发现数字技术可赋能“制度—技术”兼容的层级化法律规范结构,“实体—程序”衔接的法律执行机制,以平台为中心的“平台—公众”制衡结构,形成“法律—代码”二元融合的规范体系,提升社会风险预防的效果。

(一)赋能构建“制度—技术”结合的法律制度实施机制

1.预防性法的动态立法需求

数据作为数字社会的基本要素,在一定意义上重构了经济与社会运行的方式。互联网与移动终端的普及催生了多中心的网络结构,解构了传统社会的科层式治理结构。在此背景下,根植于工业文明的法律制度在应对数字技术带来的社会变迁问题时,暴露出规制对象错位、响应速度较慢等短板。顺应社会趋势,以数字技术赋能,建构适配数字社会风险治理的法律规范体系,势在必行。现代法律制度以工业文明为根基,呈现明显的中心化与物质性特征。工业社会的精细分工机制与科层式公共管理机制是工业化社会的衍生品,法律规范向往的分配正义更多集中于物质要素以契合生产增值的需求,并且排斥非国家行为体创设社会行为规范。数字技术部分改变了人们的生产方式、生活方式,推动法治新范式的形成。数据逐渐成为社会治理的重要资源,数据的大规模、高速、多样性、高价值等特征,决定了数据的零边际复制成本,数据的聚集、流动价值超越了数据的静态价值;数据资源突破了传统生产资料的稀缺性,当有形资产逐渐被虚拟权利替代,社会运行模式亦会呈现出有别于中心化、物质性等传统的特征。随着社会的数字化发展程度日益加速,数据资源的重要性愈发凸显。法律制度的制定和社会风险的预防机制如果不能很好地利用数字技术助力社会预测的能力,将无法建构高效的社会风险预防机制,难以收到理想的社会风险治理效果。比如,关于个人信息保护法律的重点在于赋予个人控制自己信息流动的权利,然而,随着数据分析、人工智能等技术的加速创新,关于个人信息保护的方式亦需要适应数据信息加快流动的社会需求,发挥数据流动性价值,更好地赋能社会治理。

当然,也应注意到,数字技术的迅速迭代与法律制定的正当程序之间产生了结构性矛盾。立法是一个艰难而漫长的利益磨合过程,通常需要经过周期较长的立法程序。以人工智能技术为例,其更新周期以月或季度计算,甚至以周计算,但人工智能立法和法律修改,却是难以在短时间内完成的;法律制度的时滞性会导致制度严重落后于技术发展,直接影响预防性法的实效性。

2.赋能层级化的法律制度设计

风险社会下的法律创制活动应当贯彻风险预防原则,建构适应风险社会管控的法律体系。预防性法律制度作为常量,在应对不断涌现的数字风险时,可以将算法技术嵌入其中,以法律价值锚定和驱动技术工具理性,推动风险预防制度由文本向文本叠加技术的治理范式转变。当人们有意识地塑造风险预防的数字化环境时,数字技术建构的世界将会比其模拟的真实世界安全。数字技术的延展性与适应性能以技术迭代应对风险演化,成为风险预防制度体系化运作的重要要素。

预防性法律制度的核心在于确定价值锚点,通过制度框架界定风险预防的价值目标,明确风险规避的方向,这一目标的实现亟需数字技术提供方法支撑。比如,在个人信息领域,《个人信息保护法》第4条第1款将匿名化的信息排除于“可识别个人信息”范畴之外,以促进匿名数据的流动,但匿名数据亦有可能被重新识别,产生侵犯个人隐私的风险。对此,以差分隐私算法为代表的技术方案,既能避免算法模型设计者从结果反推和识别个人信息,又能从数据中获得有用的见解和信息。所谓差分隐私算法,是故意向计算机添加“噪声”,即在“将数据输入算法模型—再输出结论”的路径上插入一个随机算法,阻断数据结论与个人信息的关联性。这种技术阻断的方式兼顾了制度框架内隐私安全与数据价值释放的动态平衡。

《网络安全法》《数据安全法》分别确立了数据安全分级分类保护理念,故有学者呼吁,国家应当制定有层次的分级保护标准与数据保护机制,但单纯的制度回应仍难以适配新型风险动态管控,数字技术适时介入和妥当运用有助于数据分级分类保护目标的实现。如在公开层,可根据法律价值位阶与具体应用场景,明确公开层的算法公式、数据权重。比如,公共基础设施场景中应当将安全价值置于自由价值之上,依此价值取向,运用数字技术可以测算公开数据、算法等的安全阈值。在验证层,监管机构可以根据匿名数据与模型参数副本,落实法律制度安全或发展的价值取向,并防止信息公开损害公共利益、公民合法权益。在保护层,适用算法加密工具可以实现“加密去标识化”的要求,保证数据不可见但可用。

(二)赋能法律规范的实施

为了更精准、更科学地预测和化解风险,国家权力对风险进行提前预判和主动干预具有正当性。数字技术在一定程度上可以使风险及其演化过程以更细颗粒度的方式呈现在制度制定者面前,通过可视化与模拟技术校正人们对风险感知的偏差,从而制定出更符合风险预防要求的法律制度。

1.基于风险预防的权力扩张

基于风险预防的目标,国家出台的有关制度在一定程度上会限制权利主体的自由,但不加限制地适用风险预防原则会加剧权力扩张的风险,预防性法律制度的正当性就会被削弱。因此,预防性法律制度的建立,需要借助正当程序,以“成本—收益”原则证成法律制度设定和执法权力扩张的正当性。

在风险社会,很多风险个人无法提前预知,因此风险不可能由个人独立应对,而需要通过制度来化解。在风险社会中,当面临潜伏性、不可逆的社会风险可能时,国家有必要提前介入风险;在特定情形下,即便科学证据无法完全证立因果关系,也有采取规避风险措施的必要。比如,2025年我国修订的《传染病防治法》授权各级疾病预防控制机构履行监测职责并制定相应的标准规范,正是基于风险无法全然预知的特征。预防性法律制度的构建应当基于正当程序的逻辑在于,由于风险的不确定性导致因果关系的盖然性不明,人们无法通过事实经验认同预防性法律规范授权国家机关提前介入风险的正当性,因而需要从国家对社会利益履行保护义务与保障公民基本权利的角度阐释国家建立预防性法律制度的合理性。

风险预防还需要满足两个前提,一是风险发生的高度可能性;二是风险预防的经济成本。风险发生的高度可能性是风险预防的基础,此外,识别风险类别及其损害程度亦不可被忽视。一般来说,如果只是存在风险,但其发生的可能性尚不明确,风险仅停留在抽象层面,风险预防的正当性就值得商榷。因此,风险预防既要识别风险类别,也要合理评定风险等级,据此建立的预防性法律制度才更具正当性。比如,《数据安全法》建立了风险评估机制,正是通过识别风险类别、评定风险等级等证成预防性法律制度建立和相关权力扩张的正当性。预防性法律制度的建立,应当遵循公众参与的正当程序,回应因风险的不确定性导致的公众对权力扩张的质疑;授权利益相关者与公众在理性商谈中参与风险评估和预防性法律制度的制定,有助于以主体间的平等对话形成风险预防制度设定的共识。

2.通过数字技术推动法律制度的实施

数字技术的应用与迭代推动社会生活以细粒度的数据形态呈现,将风险的不确定性转化为可量化的指标体系。数字技术的动态监测与算法模型的预测功能有助于实现风险识别的精准化,使对风险发生可能性的判断从主观的经验转向数据的智能分析,显著提升风险预防的针对性和效能。数字技术通过统一的编码体系,可将社会生活的动态演化过程转化为以“字节”为单位的可量化单元,实现对社会运转机制的数据化分析与观察,并从数据技术层面提升社会运转的再组织化程度。比如,借助物联网技术与实时监控系统,管理者可以敏锐地捕捉网络流量与移动终端状态的变化;在个人信息处理场景中,可以监测数据泄露情形,发现数据处理异常情况,更好地落实《网络安全法》关于网络运行安全监测的要求,加强对个人信息的保护。

(三)赋能构造“平台—公众”的多元协同治理体系

风险的系统性、泛在性等特点决定了应以协同治理机制有效预防风险,但多元主体间的协同参与会加大“权力—权利”之间的张力。数字技术将法律文本的自然语言转化为算法模型能理解的编程语言,并将法律制度要求嵌入各类数字平台运行的程序。数字平台凭借其整合数据资源的能力重构社会组织结构,成为制衡权力运行的关键力量。

1.赋能数字平台掣肘权力恣意

权力作为一种支配力量,不受约束必然滋生恣意。数字技术将纷繁复杂的社会生活转化为编程语言——代码,并将法律规范文本嵌入各类数字平台,可实现法律对社会生活的数字化调控。法律规范以抽象、概括的语言表达,旨在适应社会实践的复杂、多变,其适用离不开人在特定场景或者语境中的经验判断或价值衡量。数字技术使用编程语言,用代码表达,遵循的是“二进制”。这意味着,编程语言可以“非此即彼”的二分法规制人的行为。在数字场景下,代码比法律规范对权力的制约和规制更为有效,有助于减少可能产生的权力恣意。掌握数据、算法的平台,一旦接入权力运行程序,就可以在一定程度上解构传统的科层式的权力运行程序和信息流动结构。随着公共数据平台的应用,政府的权力运行过程从封闭走向开放。数字平台的开放性与共享性制约着隐藏在代码背后的权力运行过程,且数字平台的“处处留痕”功能亦会标记权力运行的足迹。因此,数字技术在很大程度上能够提升公权力运行的合法性,实现对权力的制约。

2.赋能公众参与风险治理

数字技术拓展了公众参与国家管理、社会治理的渠道与能力,赋能公众参与风险治理,有效回应了风险社会的治理需求。公众作为风险的直接承受者,天然地具备参与风险预防的内驱力。数字技术能够更加敏捷地将公众对风险的感知,传递给科层制的社会治理体系。数字平台有助于打通政府内部组织之间、政府与社会、社会内部的信息壁垒,压缩因信息不对称产生的权力寻租空间。

此外,信息传播的数字化升级大幅提升了公众信息资源交流的活跃度,任一个体在社会网络中作为一个节点,都可以实现与其他任意节点的联系与互动,这极大地增强了社会内部信息的连通性,消解了信息的不对称性。数字技术创设的各类社交平台,可以使公众通过各类社交媒体平台以低廉的成本实现信息获取与信息沟通;平台还可平等赋予公众话语权,创设出平等协商的网络交流的公共空间;公众的各种诉求可以通过平台来表达。总之,数字技术建构的网络空间,可以将原子化的个体转化为网络空间的组织化力量,使公众共同参与社会风险的治理。


四、数字技术赋能预防性法律制度构建带来的新难题及其化解


(一)数字技术赋能社会治理带来的新难题

1.算法预测偏差的解释困境

尽管算法预测模型可显著地赋能社会风险的预防,然而,实践中亦会出现算法预测偏差,造成对特定群体的待遇不公。算法模型作为预测工具,当其预测结果存在伦理争议时,人们可能会产生算法厌恶。这种情形源于对算法决策的归因偏差:人们倾向认为是人为因素导致了偏见或歧视,而非算法工具本身;但事实上,在任何应用机器学习等算法模型的地方,歧视或者偏见都可能出现。根据导致偏差的原因不同,可将算法偏差分为算法局限与算法偏见。算法局限是算法与复杂数据在交互过程中自动生成复杂模型时出现的。如前所述,算法预测模型得出预测结论的依据并不是完全客观真实的。数据集作为人类社会行为的标记,存在历史偏见或结构上的不平等;数据抽样的偏差,数据预处理带入的偏差等原因,都会导致算法预测结论的偏差。而算法偏见(歧视)尽管与算法局限有着相同的偏差表征,但二者产生的原因在法律属性上是不同的。根据算法预测结论的生成机理,算法依据的特定数据是人为变量或者人工分类进行标记的,又因数据标记离不开个体的经验观察或者主观评价,因此,数据标记中的偏见就有可能导致算法歧视。比如,以聚类算法识别法官的办案能力,并以此分配案件资源,就可能存在算法偏见。

算法的可靠性需要解释,但算法模型的复杂度与可解释性之间存在着悖论。一方面,算法预测模型的复杂性与黑箱特质,超越人的认知阈值,引发算法不能解释的困境;另一方面,算法设计者更关注模型在特定任务中的性能指标以及模型运行是否良好。这就决定了,至少在当前,人们对算法及其偏差的解释力并不强;将算法运用于法律运行过程,也存在难以充分解释的问题。当然,制度逻辑与技术逻辑之间的嫌隙带来的解释困境,是未来技术赋能法律运作会长期面临的难题。

2.数字平台会引发权力滥用

数字平台作为关键节点,会融合数据利维坦与算法利维坦的双重权力属性;如果对其缺乏有效的掣肘机制,将引发权力扩张与滥用风险。

数字平台可以让生产者与消费者实现一系列数字资源交互,但人们在使用数字平台时需让渡数据资源或数据权益。数据的非竞争性赋予社会无限的扩张性与可能性,掌握数据和数据化的信息对于权力至关重要。数字平台作为第三方掌握了海量的数据资源与强大的算法技术,从而获得了一定的社会支配的地位,其既是数字社会的旁观者,也是数字技术发展的最直接受惠者。一方面,数字平台享受着人们让渡的数据带来的经济利益;另一方面,承担的义务与其享受的权利并不完全对应。因为数据价值在于动态的流动,而非个人的静态持有。数字平台特别是头部数字平台,处于国家与公民之间,既可配置权力(权利),亦可改造权力(权利)。这实际上构成了霍布斯极其警惕的具有强大瓦解性与破坏性力量的中间势力。权力能利用技术工具实现对人的规训。当前,各类数字平台将人们的行为标记为量化的、精确的信息,各种算法决策模型使人的行为甚至人的内心世界具有可读取性。但掌握数据集的平台主体与数据主体之间的信息差会造成“你知我不知”的“全景敞视”格局。比如,各类数字平台利用算法模型推测用户的行为偏好,向用户精准投放广告。数字平台利用算法技术会给用户营造“自愿被操控”的幻觉,导致用户“不想选择”甚至“不会选择”,长此以往,会弱化人在社会中的主体性。

(二)增强制度的体系性以化解难题

发挥数字技术的风险预防作用,存在方法选择问题:一是跨维度方法选择,包括技术控制与制度建构;二是同维度的子方法选择。如果方法选择是任意的,那么风险预防方法的适切性将成为无法得到答案的难题,导致风险预防与比例原则相悖。如果方法选择是有章可循的,那么技术控制与制度建构就需要形成体系,以发挥技术在预防性法律制度运行中的效能。

1.建构以平台为媒介的融合性法律运行体系

预防性法律制度试图将技术风险纳入制度控制的轨道,但因为法律对社会风险的预防需要数字技术赋能,所以数字技术与法律制度呈现出相互排斥又相互嵌套的关系。(1)应当充分发挥数字技术的赋能作用。为此,应以数字平台为基础,建立“制度—技术”与“实体—程序”相融合的预防性法律体系。数字平台实际享有一定的准立法权,比如,平台有权拟定用户协议;享有一定的准行政权,如对违反平台协议的用户有权采取带有处罚性质的措施,如限号、封号;享有一定的准司法权,如可介入平台纠纷解决并作出处理决定。数字平台无论是在技术应用还是在制度控制中,都呈现出精密化特征。为了提升预防性法律制度的运行效果,需要编织一个法律规范叠加技术控制、实体法衔接程序法的动态治理制度之网,提升数字平台对预防性法律制度运行赋能的效果。(2)防止数字技术导致的平台权力异化。数字平台权力异化的根源在于平台主体的公私融合属性,平台通过自我赋权与自我规约形成自我管理的闭环,导致自身与用户间力量的失衡。数字平台在社会生活中扮演公共管理角色,发挥风险预防职能,因此,其公共管理职能的发挥应被纳入行政执法的程序结构,遵循权力运行的正当程序。在技术风险预防层面,应将经过正当程序确认的平台规则(如隐私保护条款、公平交易规则)进行代码化,通过有限度的规则代码化、代码规则化、代码规则互译的程序化的连接机制,可降低数字平台权力异化的风险。

2.构建算法预测矫正程序

哈贝马斯的公共领域理论强调,交往主体可以通过理性的商谈程序形成合理共识,化解公共性难题。在数字技术风险治理中,识别算法预测模型的固有局限与人为过错,是辨析数字技术是治理工具还是治理对象的重要前提。为化解这一公共性难题,需要建立评估算法偏差的机制,防止数字技术风险被非理性地放大。

针对数据结构带来的算法预测偏差和不公平结果,可采取相应的偏见消除措施。为了保证预测模型的公平性,统计均势(Statistical Parity)作为算法公平中最基础的群体公平性衡量指标,可以缓解预测结果的不公。这种方法要求预先确定拟保护的数据类别,在数据采集、算法设计中设置偏向,以提升预测结果的公平性。这种方法的本质是推动算法预测的准确性与公平性的平衡。当然,平衡目标的实现,不能只靠技术,同时需要进行价值平衡。鉴此,需要在重大算法设计和完善中通过正当程序展开辩论,由多元主体共同参与讨论,决定算法设计的各项权重,以提升算法预测的正当性,矫正不合理的算法偏差。解决这一问题,除了需要借助因果推断、统计均势等技术方法,还必须在制度层面,加强技术专家、利害关系人、算法设计者、社会公众的信息沟通,以提升算法预测模型的伦理性,确保技术应用契合以人为本的价值取向。


结  语


现代化的反思性揭示了个体与机构需要在不断反思中调整应对风险社会的制度或政策。数字技术凭借其整合分析数据与算法模型预测等能力,能显著赋能风险预防的法律效果。然而,技术的进步并不可能只赋予人自由,彻底地依赖技术只能使人彻底地失去自由。数字技术的发展也会成为风险社会的新型风险。风险的系统性、泛在化等特征需要建构体系性的预防性法律制度加以制衡。预防性法律制度的体系化建构,包括三个维度,即“制度—技术”的结合,制度设计中“实体—程序”的兼容,建构制约“数字平台”权力的制约机制。在万物皆数的可计算、可量化的现代社会,面对风险预防的权力扩张与人在数据洪流中的客体化风险,制度设计必须保留人的自由意志空间。预防性法律制度在建构中,既应注重借助数字技术提升法律实施的预防性效果,也应当注意制约数字权力带来的风险,由此,数字技术才可以赋能预防性法律制度的构建和运行,更好地发挥其在社会中的正向作用。


来源:《法律科学》2025年第6期

文献数据中心|DATA CENTER

© 2009-2026 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc