“数字孪生”无疑是时下最受追捧的新技术概念之一,不仅成为与人工智能、物联网、大数据并列的科技弄潮儿,而且已悄然进入各国的国家战略。以我国为例,国家发改委2020年4月把数字孪生列为数字化转型的支撑性基础设施和技术创新赋能的关键对象;政府2021年新鲜出炉的“十四五”规划纲要也把建设数字孪生城市作为数字化转型的重要突破口。
数字孪生并非单指某一特定技术,而是一个对人工智能、大数据、物联网、虚拟现实等技术进行综合运用的技术框架。数字孪生的走红既源于人们对新技术的好奇心,也因为它与人们对于数字社会、数字化治理的想象颇为契合。当前,数字中国的建设已经步入“数字孪生时代”,数字空间正在实现对现实空间的复制甚至超越。
在技术狂飙突进的年代,物联网、人工智能、5G甚至6G等新概念你方唱罢我登场,但都能纳入数字孪生的理论模型和体系架构之内。因此,研究数字孪生视野下的法律和问责既有其特殊性,同时对普遍意义上的技术规制问题亦有所裨益。笔者聚焦数字孪生的核心问题———算法规制———特别是近年来颇受重视的算法黑箱,重新解读其背后的技术复杂性和法律困境,试图超越“打开”黑箱和“避让”黑箱的二元思维,运用技术标准建立法律与算法之间的沟通机制,加强作为法治基石的问责机制,构建软法硬法混合治理的算法规制模式。
一、数字孪生中的算法及其规制
得益于物联网、大数据和云计算等底层支撑性技术的日益成熟,数字孪生的概念和技术架构得到广泛关注。但平心而论,数字孪生的雏形早已有之,最经典的案例当属阿波罗13号登月飞船在1970年惊心动魄的故障事件。发射两天后,氧气罐突然爆炸导致船体严重毁损,此时事前制造的15个登月飞船的“孪生”设备派上了用场。飞船数据经由彼时最先进的通信技术传向地面的电脑环境中,工程师得以分析处理远在33万公里外的飞船工作状态。地面小组经过复杂的仿真推演,制定出紧急操作步骤,协助宇航员在将飞船稳定至返回轨道,奇迹般回到了地球。
与今天相比,五十多年前的数据通信和存储能力都极为有限,也没有AI算法辅助决策,主要靠地面人员对着实体控制台手动仿真。尽管如此,数字孪生的基本概念和系统架构已初现端倪。
(一)数字孪生的基本概念
尽管早期实践可追溯到阿波罗登月计划,但数字孪生作为理论模型被提出的时间一般被定格在2003年:美国密歇根大学教授迈克尔·格里夫在产品周期管理的课程上提出了“与物理产品等价的虚拟数字化表达”的概念,旨在对设备的信息和数据进行更清晰地表达,并在整合所有信息后进行更高层次的分析。
由于数字孪生是近年来的“新风口”,特定技术领域的从业者往往会对概念进行“限缩解释”以凸显其技艺的独特性。研究建模和仿真技术专家认为他们所熟知的计算机辅助设计技术就是数字孪生的原型;
对法学研究而言,数字孪生宜被理解为:通过数字化的手段对现实世界中的对象在数字世界中构建对应的实体,借此来实现对现实世界的了解并以此促进决策优化。这一广义解释将数字孪生与特定技术区别开来,捕捉到该理论模型的关键,即现实系统与虚拟系统的共在性以及两者之间的孪生(或者说镜像)关系。
(二)结构层次化与算法黑箱化
1. 界面、数据、模型的三层结构
数字孪生的内涵及关联技术在大众传播过程中势必不断变迁,但是从系统架构的角度对数字孪生相关技术进行划分,可以为法律人提供一个稳定的分析框架。数字孪生技术的体系结构由界面、数据、模型三个层次构成(见表1)。
界面层和数据层宛如数字孪生系统的皮肤和血肉,而算法所在的模型层给它注入了灵魂。首先,界面层是数字世界与现实世界接壤之处,实现数据收集、信息展示、指令控制的功能。其次,数据层实现了意义建构的功能并作为模型层的输入和输出。数据分析、清洗、处理、存储等操作大多发生在数据层;现实中的人、事、物在数据的维度上被细致入微地重建。最后,模型层实现建模和决策,借助专家系统、人工智能、最优化等技术进行建模优化,发挥着统筹决策的功能。
表1 数字孪生的体系架构 下载原表
当然,界面、数据和模型的三层体系是对数字孪生系统架构的一种概括和简化。在具体运作过程中,系统层次之间往往是互渗入的,例如神经网络模型中的数据层和模型层紧密耦合在一起,因此有时难以找到层次间的绝对的边界。此外,也有学者基于对技术进一步细分的目的提出了数字孪生的五要素(传感器、数据、集成、分析和促动器)、五维结构(物理层、数据层、模型层、功能层和能力层)等分类方法,
2. 算法规制与算法黑箱化
算法规制是数字孪生时代的重要法律问题。从数字孪生的体系架构来看,模型层和数据层正是数字空间的核心区域,
算法规制是技术与法律的双重变奏。算法是用代码编写出的思想,是工程师发出的一系列指令,“告诉计算机该做什么”。
数字孪生时代算法规制不能逃避的首要问题就是算法的黑箱化。界面、数据、模型的三层架构形成了一种天然的算法黑箱。数据和模型在黑箱内部,黑箱的边界是交互界面,在物理世界和数字世界之间形成一道天然的隔阂。人们大致知晓健康码的计算规则与所处地区的风险水平、人员接触情况等信息有关,但具体的计算公式和参数权重是看不到的。除非穿透界面层,否则无法知晓黑箱内部的运作情况。
二、黑箱中的代码“封装”与规则“隔音”
在数字孪生时代,现实世界在数字世界里被重建,随后数据驱动算法作出决策并借助界面层把指令传递到现实世界中。让人焦虑的是,数字空间的运作逻辑———算法是不透明的。黑箱便是关于“不透明”的一个比喻:人们把影响自身权利义务的决策交给了算法,却又无法理解黑箱内的逻辑或其决策机制。弗兰克·帕斯奎尔在《黑箱社会》中将这一隐喻发挥得淋漓尽致,抨击了美国社会正陷入被金融和科技行业的秘密算法所操控的、令人难以理解的状态。
当然,把算法黑箱等同于“暗箱操作”或极度复杂、无法理解的代码系统,都有失偏颇。算法黑箱本质上是一种可以减少技术复杂性的封装手段,但同时也带来了法律风险问题。
(一)代码封装与通信系统的复杂性化简
在软件工程领域,黑箱与“封装”的概念是紧密联系在一起的,意味着存在着内外有别的边界。
以上分析表明,算法黑箱并不是复杂性的结果,而是减少复杂性的手段。从技术系统的视角来看,算法黑箱形成了一个稳定、简洁的界面帮助人们建立对算法系统的稳定预期,使公众不必被现代社会日益增加的复杂性所困扰。因此,在数字孪生时代,算法黑箱所代表的封装模式广泛应用于物联网、信息通信、移动APP等诸多领域,推动着信息在现实世界与数字世界之间的双向流通。此外,算法黑箱为保护个人隐私、商业秘密、知识产权提供了天然屏障。在不公开个人隐私的情况下将决策付诸实践,可以避免公开评议对弱势群体造成心理伤害。
(二)规则隔音的法律风险
数字孪生时代,政府和企业都大量使用算法进行自动化决策,而其中公权力机关使用算法黑箱导致的决策不透明更易受人诟病。美国法学家迈尔·丹科亨曾经通过一个“规则隔音”的思维实验介绍了两种规则的分离。
在数字孪生时代来临前,规则隔音的客观条件尚不成熟。一方面,公务人员和普通民众生活在同一个空间里,并没有“不透音”的墙;另一方面,采用清晰、易懂的语言将规则公之于众,是规则之治的内在要求,“规则如果无人懂,守法如何行得通”?
数字孪生时代,算法的黑箱化趋势日益明显。通过简单直接的界面就足以给公众提供规则的指引,因此决策规则的隐蔽性更强,从而埋下了权力恣意的种子。在政府方面,规则隔音威胁着法律的内在道德性,特别是公开性和清晰性的要求。
三、事后问责与事前规制的两难处境
对算法黑箱的技术本质和法律风险作出阐释后,可在此基础上对现有的规制路径进行评析。若以损害结果发生为界限,算法规制的策略可以划分为两大类:一是基于结果主义的事后问责;二是强调过程控制的事前规制。算法问责和算法透明分别是这两种进路的主要代表,在平衡技术复杂性与法律复杂性的问题上采取不同的倾向。算法问责进路试图与算法保持一段距离,把目光聚焦到以侵权法为代表的归责理论研究上,减少事前对算法运作逻辑的关注从而规避打开黑箱可能遇到的技术复杂性问题。算法透明进路则强调对算法的穿透式监管,尽可能捋顺隐藏在黑箱中的决策规则和因果关系,从而减少算法造成的法律复杂性。
(一)基于结果主义的算法问责
1. 事后问责试图回避技术复杂性
结果主义的算法问责认为,算法系统具有高度复杂性因而难以确切知晓黑箱的内部逻辑,所以应忽略算法黑箱的技术细节,在损害发生后进行事后问责。现代软件工程中的算法可能由成百上千的工程师协作完成,代码冗长而复杂;对于数据依赖性较强的机器学习算法,即便算法设计者以及工程师也无法依据代码来准确预测系统的行为。
基于这种思路,在损害发生后再介入问责看起来能颇为有效地解决算法黑箱的问题,避免了在技术细节中迷失。不可否认,结果问责的视角具有积极意义,可以帮助破除一些所谓的算法黑箱的障眼法。例如,2020年9月《人物》杂志一篇《外卖骑手,困在系统里》的文章引起了社会广泛关注,记者通过“春秋笔法”把矛头指向算法系统,但法律人显然不应被企业的“算法新衣”所迷惑。无论外卖派送系统的算法技术是多么复杂,这在法律上无关紧要,讨论平台在保障外卖骑手权益方面的责任才是关键所在。事实上,事关重要的算法大多由公权力机关或平台企业在操作,因此要找到为损害后果买单的责任人应该不难。
此外,从成本—收益的视角来看,相比算法透明试图在算法风险成为切实危险之前对其进行规制,事后问责的法律成本更小并且收效更有保障。当算法尚未损害当事人权益时推定其为合法,无需对算法的研制进行过多限制,进而规避了与个人隐私、商业秘密、国家机密等法益的潜在冲突,极大地减少了由于未雨绸缪的事前规制而导致防范成本过高。
2. 黑箱的法律复杂性导致问责失效
不难发现,结果问责进路的背后是对算法黑箱的一种微妙态度———尽管对黑箱的技术细节难以理解,但算法造成的法律后果是显而易见的。算法的内部逻辑可能极端复杂,但是在法律意义上是简单的。或者说,技术黑箱不等于法律黑箱。但是,结果问责进路对算法黑箱的认知存在过度简化之嫌。随着深度学习等机器算法的大规模使用以及算法系统相互之间的互动愈加频繁,无论是算法内部的因果关系还是系统间的因果关系都变得复杂。特别是当人工智能用于辅助决策时,决策者实际上把算法作为决策的依据,这时决策责任变得模糊。如果需要问责,算法黑箱无法显示因果关系或者至少导致因果关系复杂化,则会妨碍问责。代码封装与规则隔音的相互叠加,很可能使算法黑箱成为“规则黑箱”,进而演变为“责任黑箱”。
不妨从“损害结果”和“责任主体”的两个维度入手,对算法黑箱的法律复杂性进行分类从而说明结果问责的局限性。表2从损害和责任两个维度把算法黑箱划分为四类,从第一类黑箱到第四类黑箱的法律复杂性不断提高,事后问责的局限性也逐步显现。
表2 损害与问责视角下的四类算法黑箱 下载原表
结果主义的问责机制能够奏效的前提是,用户能明确知晓是否受到算法的侵害,而且法律上也能找到明确的责任主体。这一假设在“第一类黑箱”的简单情形下是成立的,结果问责处理这类情况比较得心应手。例如,P2P技术究竟是所谓的中心模式还是去中心模式,不影响对侵犯知识产权的判断;
第二类黑箱,损害结果可知但责任问题开始出现争议。典型代表是自动驾驶相关的侵害事件和难以查明根源的个人信息泄露事件。以2016年与特斯拉相关的“全国首例自动驾驶致死案”为例,
第三类黑箱,责任主体容易判断但损害的发生不易察觉。无论是政府使用儿童安全和风险评估算法导致父母与子女被错误分离,还是福利分配系统错误拒绝合理的救济申请,由于决策规则被隐藏在黑箱之中,当事人往往无从知晓算法错误正在损害自身权益,仍误以为是政府在行使法律赋予的自由裁量权。尽管这些情况最终被察觉后,政府部门的责任是无可推卸的,但公众难以确知究竟有多少侵害合法权益的情形正在发生,这不得不令人忧心忡忡。
第四类黑箱的情况变得更加扑朔迷离。一方面算法的损害结果极为隐蔽;另一方面责任的归属也变得含糊。这在人与算法以及算法与算法间协同运作时最容易发生。以人机协作为例,在卢米斯案中COMPAS量刑系统被嵌入美国的司法审判过程,审判结果是软件的算法黑箱和法官的大脑黑箱共同作用之下形成的。
通过以上对四类黑箱的分析可知,对算法黑箱的法律复杂性不能等闲视之。算法黑箱可能使损害结果非常隐蔽,规则封装使得责任判断的复杂度陡增,进而造成结果问责的失效。因此,仅凭结果问责无法打消人们对算法失控的疑虑。
(二)强调过程规制的算法透明
算法透明经常被视为解决算法黑箱问题最直接、有效的方式,
1. 披露内部逻辑的可行性困境
“原旨主义”的算法透明即强调代码层面的透明。
既然代码披露过于激进,退而求其次便容易想到公式以及参数权重的披露。这看起来是比较温和的要求,比披露成千上万行代码更精简而且对于非专业人士也更具吸引力。但是,公式、参数的披露面临三方面的问题。其一,公式和参数的披露并不能完全绕过商业秘密、国家机密的保护区。
实际上,在算法自动化被大量使用之前,披露内部逻辑面临的复杂性困境就已经客观存在。以金融监管领域为例,披露与掩盖之间的关系可谓道高一尺魔高一丈。政府经常要求金融机构使用简明清晰的语言向消费者披露信息,但金融机构仍有大量方法实施混淆从而将信息掩埋在噪声中。
2. 披露外部理由的有效性疑问
在回应批判的过程中,算法透明的内涵开始不断扩张而成为一个多层次的概念。
此外,外部解释是否构成一种独立的权利或价值仍是存疑的。在没有具体法益损害时单独设立获取理由解释的请求权的性价比不高,从司法资源利用的角度似乎不宜单独作为一项诉权。以行政处罚中的告知义务为例,无论算法是否介入,政府均应对行政处罚作出说明,此时的算法解释权证成源自行政法规而非泛泛地获取外部解释的权利。因此,外部解释的一般性法律规定容易成为形式性的倡导,似乎更适合被吸纳进“为民服务”“顾客至上”等理念中,难以成为具有独立价值的规范性要求。
3. 算法透明原则内部的价值冲突
除了面临可行性、有效性的外部质疑之外,算法透明原则还面临着自身内部的困境———相关规制手段之间存在价值取向的冲突,难以形成一套融贯、自洽的规则体系。由于算法透明通常被视为一项法律原则,而非全有或全无的法律规则,因此对披露源码、外部理由等特定规则进行批判似乎无法驳倒该原则整体上的可欲性。毕竟,原则较之规则更为抽象、宽泛,许多项规则可被归入同一个原则之下。
在究竟是披露内部信息还是外部信息的问题上,算法透明原则的内部存在着价值冲突。披露内部信息是为了对黑箱中的内部逻辑进行穿透性监督,披露外部信息则仅仅要求对用户应如何行为加以引导。
由于内部信息和外部信息在目标和价值上的冲突,无论使用“或”还是“并”的逻辑操作将两者组合起来,都难以妥善解决。一方面,如果内部信息和外部信息二者择一披露即可,这便是把两组在目标和价值取向上有冲突的规制策略生硬拼凑在一起,在实践缺乏一以贯之的标准。另一方面,如果对内部信息和外部信息全部加以披露———这无疑是一种相当激进的主张———那么来自商业秘密、国家机密、知识产权方面的批判又全都回来了,算法透明在实践中将寸步难行。
总结来说,算法透明的初衷是打开算法黑箱来披露隐藏其中的内部逻辑,因而获取内部信息是关键所在。但是,在与其他例如商业秘密、国家机密等法益的冲突中,算法透明原则难以成为压倒性的“王牌”,因而逐渐妥协,开始向披露黑箱外部信息退却。由于在披露内部信息还是外部信息之间举棋不定,算法透明本身的内容反而如堕入云雾般不透明。
四、法律系统与算法系统之间的沟通机制
对算法黑箱展开事前规制或事后问责所遇到的困境,根源在于法律系统与算法系统之间沟通不畅。规制算法黑箱的关键,是保持算法运作封闭性同时促成其与法律系统的相互沟通。从社会系统论的角度来说,功能系统彼此之间互为外部环境,无法直接相互影响。借用卢曼关于“扰动-信息”的经典区分,对于一个特定的系统而言,它无法对外部环境发生的扰动作出反应,除非该扰动以某种方式被转译为系统所能理解的内部信息。
通过技术标准构建信息交换的结构性元规则,可以推动法律与算法的跨系统沟通,在此基础上其他的算法规制策略方能得到有效展开。
(一)信息交换与结构性元规则
“社会设计中的一个普遍存在的问题便是如何把握支持性结构与适应性流变之间的平衡。”
沟通在于信息的形成、传达以及理解,“从话语空间的角度来考虑,要克减复杂性,就要对沟通过程中的信息进行定向选择,排除某些因素而保留另一些因素。不言而喻,正是这种定向选择会产生涵义,同时也可以增加人们对未来的预期”。
可以说,公司法、证券法关于组织结构的规定为上市公司与外部环境的沟通机制制定了一种“结构性元规则”———用来描述规则的结构、种类、信息的规则,即关于规则的规则。
那么,关于算法信息披露的结构性元规则是什么?法律与算法的支撑性边界何在?与上市公司不同,算法并没有固定的内在结构。单是神经网络算法便达数十种,更不用说与其他算法结合并根据场景定制处理后所形成的千变万化的类型。此外,机器学习模型可根据外界环境变化通过自适应学习对算法结构进行修改,随着时间不断进化。实际上,正是算法这种变动不居的结构特点使之能够对千变万化的问题域进行建模。因此,试图依赖算法的内在结构作为与算法系统沟通的结构性元规则,从而为信息披露划定清晰的边界是非常困难的。
(二)作为沟通元规则的技术标准
算法没有内在的固定结构仅仅说明缺乏现成的结构性元规则可资利用,但并不意味着无法通过自主建构的方式来制定结构性元规则。正如吉登斯所言:“结构是转换的规则和资源……结构本身在时空中不存在,结构是通过人类的能动活动而存在。”
建立与算法系统沟通的结构性元规则需要满足场景性、技术性、灵活性等特点,刚性的硬法无法满足这种场景复杂而又灵活多变的需求。因此,应当积极探索使用软法的应用。“硬法权限明确、程序规范、形式固定、效力有保障”,但硬法存在覆盖面的局限性并且在实施中存在形式主义、灵活性不足等问题,因此“软法基于其自身特性与硬法形成了互补,充塞填满了硬法的空隙”。
技术标准在建构与算法系统的沟通机制上具有以下优势。第一,技术标准符合算法规制的场景性要求。计算机算法作为一种通用性技术,被不同主体普遍运用并嵌入不同的应用场景之中,机械使用某一种规制策略都没有充分考虑算法应用的场景性,因此应当采取场景化规制的策略。
(三)以技术标准巩固算法的法律规制
技术标准适合用来指引结构性元规则的制定,从而建立法律系统与算法系统的协作沟通机制。技术标准把法律与算法系统的沟通化简为两个子问题:第一,算法标准是否合理合法;第二,算法运作是否符合标准。类比食品、药品的生产,其流程、工艺、配方都因涉及商业机密而无法公开,但人们对于“黑盒”中生产出来的产品依然可以放心使用,一个重要的原因就是食品药品标准可以作为食药安全的检测基准。相信算法也会经历类似的过程:通过将特定算法与国家标准、行业标准、团体标准进行比较,就能更快获取有关算法的信息。换句话说,算法标准化能够降低人们与算法系统进行沟通的信息成本,而降低信息成本无论对立法者还是法院而言都是一个重要的考量因素。
基于算法标准的法律规制体系为算法规制提供了一个新的视角,众多算法规制的工具可以被囊括在内,并根据具体场景采取因地制宜的策略。算法审计、算法查验、算法可解释性和可测试性在标准层面大有用武之地。实际上,技术标准正成为践行算法规制的重要场所。以央行最近发布的《人工智能算法金融应用评价规范》为例,其中第6部分从“安全性评价”的层面对算法的依赖库、可追溯性、内控机制提出具体要求,
通过技术标准开展算法规制的思想已经在法律实践中萌发。
五、基于算法标准化的软硬法混合治理图景
前文已对技术标准在法律与算法之间的沟通功能进行了理论论证,但尚未对技术标准如何付诸实践进行分析。在传统的算法规制框架中,技术标准通常处于辅助性的边缘地位;相比之下,本文将技术标准视为算法规制的基础性环节,因而不能回避算法标准的现实效力问题。由国家强力背书的硬法尚且有着“书本上的法与行动中的法”的巨大差异,
(一)以声明机制加强标准的约束力
从我国的现实情况看,算法与已有的产品和服务不同,并不要求在研发过程中必须符合特定的标准。这就意味着尽管国家陆续出台了大量有关信息技术的相关标准,但究竟有多少企业在使用这些标准对公众来说是一个未知数。现实生活中,大量算法仍处于“无标生产”的状态。所谓“无标”并不是指算法的研发完全由开发者自由发挥、毫无章法。毕竟,企业即便没有使用国家标准、行业标准等外部标准,至少会实施一些涉及软件的开发、测试、运营及维护的内部规则。目前,我国尚未建立针对算法标准的公开、声明机制,因此互联网企业极少披露其算法标准。
算法标准的披露应当整合进我国现有的标准自我声明公开制度中去。2018年1月起实施的标准化法(修订)第27条创设了企业标准自我声明公开和监督制度,用以替代标准备案制度。根据该规定:“企业应当公开其执行的强制性标准、推荐性标准、团体标准或者企业标准的编号和名称;企业执行自行制定的企业标准的,还应当公开产品、服务的功能指标和产品的性能指标。”声明公开后的标准与公司章程以及企业承诺书发挥效力的机制有异曲同工之妙。企业在具体执行什么标准的问题上具有选择的权利,但是标准一经公开便具有法律效力,“应当按照标准组织生产经营活动,其生产的产品、提供的服务应当符合企业公开标准的技术要求”。
从软法与硬法的关系上分析,对算法标准进行声明公开可以被视为软法的“硬化”。
当然,算法的种类千差万别,若对每一种算法都设定专门标准有可能过于零碎化。因此,可以将具有类似性质的算法合并归类,适用少量的基础性、通用性标准。例如,涉个人信息的算法至少需要满足《个人信息安全规范》,涉金融个人信息时则可使用《个人金融信息保护技术规范》。此外,算法标准的声明公开可以采取分级分类、渐次推进的方式。毕竟不同机构的算法,甚至同一机构所使用的不同算法,其影响力有明显差异,所以法律可针对特定主体、特定场景对标准公开作出规定。
需要补充说明的是,标准化法中的自我声明机制主要针对企业,未将国家机关包括在内。尽管很多国家机关所使用的算法实际上由企业具体研发,但考虑到法院、政府部门、事业单位等机构也可能有内部研发团队从事算法研发,因而应考虑将标准自我声明机制扩展到企业以外的其他组织。
(二)以算法标签化推动“可视正义”
日常生活中的食品、药品外包装标签上大多会注明所使用的执行标准,国家也出台了大量关于标准信息披露的强制性规范。例如,《药品说明书和标签管理规定》第22条规定:“原料药的标签应当注明药品名称、贮藏、生产日期、产品批号、有效期、执行标准、批准文号、生产企业……等必要内容。”国家强制标准《预包装食品标签通则》(GB 7718-2011)第4.1.1款规定:“直接向消费者提供的预包装食品标签标示应包括食品名称……生产者和(或)经销者的名称、地址和联系方式……食品生产许可证编号、产品标准代号及其他需要标示的内容。”
算法作为一种数字化革命以来的新鲜事物,并非像食品、药品那样看得见、摸得着的“入口之物”,因而对算法的标签问题没有具体规定。应当借鉴食品、药品的相关规定,要求算法生产者、使用者为算法“贴标”,标示的内容应当在软件说明或介绍界面中明确展示。
不妨设想一款智慧医疗App算法,则应在其标签中标示以下事项:算法名称、日期、算法分类、版本识别号、版本控制软件、算法执行标准号、算法生产方、算法控制方、数据安全分级、数据处理所在地、个人信息保护标准以及其他信息。这些内容只是初步构想因而需根据具体场景进行调整,但已能展现算法贴标在算法规制领域的巨大潜力。
第一,算法生产方和算法使用方。以人脸识别技术为例,政府所使用的安防技术大多来自企业。尽管数据仍然在政府的控制范围内,但算法模型对政府而言是一个黑箱。在这种情况下,有必要区分算法生产方和算法使用方。此外,同一种算法模型可能被应用到不同的场景中,因此贴标工作应当由算法使用方承担。
(三)建立算法标准与上位法的联动机制
推动技术标准与法律法规在法律系统内部形成了相互支撑的同心圆结构。刚性、稳定的法律法规处于法律系统中心,柔性、灵活的技术标准处于系统边沿,共同构成了刚柔并济的“一元性多样化混合法模式”体系。
此外,从法律解释的视角来看,技术标准对法律法规能起到解释作用。正如卡尔·拉伦茨所指出的,“法律经常利用的日常用语与数理逻辑及科学性语言不同,它并不是外延明确的概念,毋宁是多少具有弹性的表达方式”,因此法律的可能意义“在一定的波段宽度之间摇摆不定……即使是较为明确的概念,仍然经常包含一些本身欠缺明确界限的要素”。
技术标准作为上位法的“解释者”的地位已在国内外初现端倪。以欧盟《通用数据保护条例》(GDPR)为例,这部“史上最严”数据保护立法极大提升了企业的合规动机,也使得与GDPR相关的周边技术标准快速普及。实际上,尽管对GDPR所创设的拒绝权、数据携带权等内容的法教义分析具有重要理论价值,但如果把视线转向微软、亚马逊、阿里等大型跨国科技企业,它们的云基础设施建设并不直接参考GDPR,而是实施了ISO针对GDPR制定的ISO/IEC 27701等标准。相比欧盟,我国拥有数量众多的本土高科技企业,并且企业参与国家标准制定也是常态,标准供给颇为充足,政企合作也更为密切。例如,国家信标委在2020年11月启动了《个人信息安全规范》试点工作,旨在推动规范中的关键要求在企业得到落实以形成优秀案例在全国推广,多家头部企业参与试点。然而,由于缺乏上位法的支撑和巨额罚款的威慑,企业对算法标准的重视程度以及实施力度仍是一个未知数。相信等到个人信息保护、数据安全以及平台反垄断等领域的立法陆续出台,技术标准在有了上位法的加持后定能发挥更强的现实效力。
结语
由数据、界面、模型构成的数字孪生体架构,让大数据、混合现实、人工智能等技术得以分层协作、各司其职,同时也使得算法的黑箱化成为不可逆的趋势。一方面,代码封装、接口分离的工程实践势必形成一个个算法黑箱;另一方面,人们的理性有限因而也不可能理解并处理有关算法的全部信息。当算法黑箱使技术复杂性得到化简,法律系统却付出了巨大代价:算法黑箱有可能遮蔽损害结果、隐藏决策规则、模糊责任判断,使法律问责的难度陡增。然而,试图把算法置于法律的全方位、穿透式监管之下,将模糊法律系统与算法系统间的界限,进而把法律拽入算法的复杂性泥潭,甚至在与商业秘密、隐私保护等其他法益的冲突中影响法律系统本身的安定性和融贯性。解决之道在于取得算法封闭性与法律可责性之间的微妙平衡———在技术维度尊重算法的运作封闭性,在法律关系上透视算法黑箱。借助于技术标准所具有的场景性、灵活性、技术性等优势构建软法硬法混合规制模式,可以走出“打开”黑箱和“避让”黑箱的二元框架,实现法律与算法的跨系统沟通,巩固作为法治基石的问责机制。
(为方便阅读,注释省略。如需引用,参阅原文)
来源:《东方法学》 2021,(04),77-92