论文精粹|INFORMATION
吕炳斌:论个人信息处理者的算法说明义务
管理员 发布时间:2021-11-09 08:17  点击:113

一、问题的提出

告知同意系个人信息保护的基本要求,并作为核心规范被纳入《中华人民共和国民法典》(以下简称《民法典》)之中。其中,“告知”又处于前置地位,是个人信息保护的首要规范要求。网络服务商、数据企业等个人信息处理者11必须满足“公开处理信息的规则”和“明示处理信息的目的、方式和范围”这两项前提条件,这是《民法典》第1035条明文施加的告知义务,《中华人民共和国个人信息保护法》(以下简称《个人信息保护法》)第7条也对此进行了重申。这两项条件看似明确,实则由于法律规范的高度抽象性,存在许多有待解释的问题。比如,立法者有意区分使用“公开”和“明示”,“公开”的内涵相对清晰,“明示”具有什么特殊内涵和规范要求却值得探讨。“明示”的规范要求中是否存在说明义务?说明的程度是否又意味着充分说明?又如,处理信息的方式属于“明示”的内容,其中是否包括自动化决策的算法?为聚焦讨论对象,本文将以应用算法的自动化决策(后文将之简称为“算法决策”)为视角,分析和明确个人信息处理者的算法说明义务及其限度。

随着大数据和人工智能技术的发展,算法决策正在兴起。基于个人信息处理,绘制自然人的人格画像,进行个人性格、行为偏好、身份特质等个人特征分析,将之用于定向广告、精准营销、保险评估、贷款管理等不同领域,正在逐渐普遍。数字化的个人信用评分系统也在不断发展。可以说,一个“空前规模的‘评分社会’或者说等级化的‘排序社会’”正在形成22

在上述背景下,算法决策场合中个人信息处理者的说明义务成为一个非常值得研究的时代命题。个人信息保护问题在广泛应用算法决策的大数据技术背景下也更为突出,学者也已提出算法解释权的概念并对之展开了探讨33。就我国现有法律而言,立法者未采纳“个人信息权”一词,相应地,个人是否享有“算法解释权”这种“权利”也会产生争议。然而,如下文将详细展开,尽管我国个人信息保护规范在整体上未使用权利化表达,却确立了相应的义务性规则,其中蕴含着“算法说明义务”。为跳出权利和权益之争,在学术研究上也可切换视角,从义务角度展开研究,使用“算法说明义务”的概念。如果说个人是否享有“算法解释权”存在争议,个人信息处理者的算法说明义务在我国法下却实实在在地存在。本文将首先从规范分析上论证算法说明义务,认为该项义务扎根于个人信息处理者的首要义务和基本义务即告知义务,孕育并脱胎于后者。其次,在规范证成之后,本文将从理论上为算法说明义务作正当性证成。最后,本文将探讨和明确算法说明义务的范围及其限度。

二、算法说明义务的规范推演路径

(一)从个人信息处理者的告知义务到说明义务

我国个人信息保护方面的立法未采纳“个人信息权”的权利化表达,但明确规定了信息处理者的相应义务。个人信息处理者的首要义务是告知义务。并且,比起可以存在“法律、行政法规另有规定的除外”的同意要求44,告知义务不仅是个人信息处理者必须满足的前提条件,还具有普适性,是通常情况下个人信息处理者必须满足的义务。

依据《民法典》第1035条第1款第2、3项确立的基本规则,个人信息处理者必须满足“公开处理信息的规则”和“明示处理信息的目的、方式和范围”的前提要件。其实,这种告知义务中包含着说明义务。该条款的第2、3项分别以“公开”和“明示”开头,也体现了立法者对告知义务的程度要求存在区别。处理信息的规则只要公开即可。即使规则中信息混杂、用语晦涩、令人费解,前述公开要求已经得到满足。然而,对于“处理信息的目的、方式和范围”这些重要事项,仅仅包含在规则之中予以公开尚且不够,其告知需要达到“明示”的程度要求。

个人信息处理者的说明义务正是蕴含在法律上的“明示”要求之中。在文义上,“明示”中的“明”的一种主要含义是明白、清楚,而“示”字也含有表明之意55。由此,“明示”的含义应该是明白、清楚地表明某些信息内容,使别人知道。“明白、清楚地表明”蕴含着说明之意。其实,“明”字在日常使用中也有说明之意。使对方明白、清楚,应该通过解释说明的手段来实现。因此,从文义上可以解释得出,《民法典》第1035条中的“明示”一词意味着该条确立了个人信息处理者的说明义务。

此外,告知的充分性要求也蕴含着说明义务。告知义务不是一种形式要求,而是一种实质要求,其中包含着充分性要求。如此方能实现告知义务的宗旨,促进用户的知情同意。我国立法机构部分工作人员编写的民法典释义书藉在解读《民法典》第1035条时,也认为“只有让信息主体充分知悉和了解个人信息的规则、目的、方式和范围,了解个人信息被处理的后果和可能影响,才可以保护信息主体的意思判断是自主、真实和合理的”,并在阐述时将该条中的“明示”一词替换为“用通俗易懂、简洁明了的语言说明”66。其中不仅提出了告知的“充分性”要求,也明确地提出了说明要求。其实,这两点是相通的,充分告知也意味着信息处理者应当将相关内容说明清楚。

为避免“告而不知”,使知情同意沦为空话,在“告知”的规范要求中应当内含着说明的成分。说明义务的存在,有助于缩小从“告知”到“知情”之间的间距。诚然,告知义务、说明义务的判断包含着充分性、合理性等不确定概念。何为合理的方式、合理的充分程度在实践中难免发生分歧。对此,判断的基准应当是通常理性人标准,在网络空间即为普通网络用户标准77。网络服务商、数据企业在收集个人信息时,应当将其目的、方式和范围明确地向用户告知说明,以通常用户能够理解为准。

(二)从个人信息处理者的说明义务到算法说明义务

在基于个人信息处理的算法决策场合,个人信息实际上是通过算法的方式予以处理和分析的,信息处理者也应当有相应的说明义务。本文将之称为“算法说明义务”,而不是迎合学理上的“算法解释权”,从而使用“算法解释义务”一词。这主要是为了保持本文术语使用的一致性和连贯性。说明的基本含义是“解说明白”,和解释的涵义几乎相同。因此,本文所谓算法说明义务亦可谓算法解释义务,与学者所谓“算法解释权”相对应。算法说明义务的存在意在保护个人权益。个人需要获得关于算法决策的解释说明,意味着决策对个人将会产生或者已经产生实质性影响。对个人有实质性影响的决策一般也是基于个人信息的处理,在信用评分、刑事量刑等典型情形皆是如此。因此,算法说明义务可谓一般意义上的个人信息处理者说明义务在算法决策场合的推演。

至于算法说明义务的定义,此处只能先笼统地将之概括为关于利用个人信息进行自动化决策的算法进行说明的义务,具体内涵尚待下文探讨算法说明义务的范围和限度之后再行明确。

(三)算法说明义务在《个人信息保护法》实施后的双重规范依据

在《民法典》中,个人信息处理者的说明义务源于其明确规定的告知义务,算法说明义务的渊源也正是告知义务。《个人信息保护法》进一步确立了算法决策相关的说明义务。《个人信息保护法》第24条第1款前半句规定“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正”,第3款规定“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”88此条第1款规定的透明度原则其实也蕴含着算法说明义务,第3款确立了一种应要求的说明义务、事后的说明义务。对此条款,本文有两点评价:第一,该条是否赋予了个人以“算法解释权”仍然可能存在争议。该条在体系上位于“个人信息处理规则”一章,而不是位于集中规定个人权利的“个人在个人信息处理活动中的权利”一章。在如此体系安排之下,个人是否享有“算法解释权”难免产生分歧。但毋庸置疑的是,个人信息处理者需要履行算法说明义务。正是因为权利和权益都对应着义务,并且权利和权益都要通过对方履行义务来实现,研究义务对法律的实施而言更为重要。第二,即使承认该条款规定了所谓“算法解释权”,这也是一种非常有限的“解释权”,一方面在时间上仅针对作出决定后的解释说明,另一方面又有着“重大影响”的条件限制,适用范围极为有限。而本文提出和论证的“算法说明义务”的范围将可囊括事前说明和事后说明,且不拘泥于“重大影响”的条件限制,其范围广于《个人信息保护法》第24条的规定。因此,在《个人信息保护法》出台后,更有必要提倡使用“算法说明义务”这一含义较广的术语,如果提倡使用“算法解释权”的术语,则可能仅仅指向前述第24条规定的有限版本。

本文认为,在我国《个人信息保护法》出台并实施后,算法说明义务将有两处规范依据:其一是《民法典》确立、《个人信息保护法》予以强化的个人信息处理者的告知义务;其二是《个人信息保护法》引入的自动化决策的透明度原则和特定条件下的事后说明义务。这种双重规范依据与欧盟法律极为类似。欧盟《通用数据保护条例》(GDPR)也没有专门规定“算法解释权”。欧洲学者就“算法解释权”是否存在曾展开激烈争论99。欧盟官方咨议机构发布的相关适用指南认可了“算法解释权”,其主要是依据GDPR中有关个人知情权以及个人针对自动化决策的保障措施的规定进行解释1010,也类似地存在双重法律依据。

从适用范围上看,从告知义务中推导得出的算法说明义务可适用于算法决策的全过程,即可包括事前的说明义务,也可包括事后的说明义务;而从个人针对自动化决策的保障措施条款中解释得出的算法说明义务,仅为一种事后的说明义务。两者的范围大小有别,前者大于后者,并可包含后者。尽管后者将更为明确,但算法说明义务的法律渊源和法律依据并不限于后者,还可源于更广泛意义上的告知义务。并且,基于《个人信息保护法》第24条规定的针对自动化决策的事后说明义务存在较高门槛要求,该条包含的算法说明义务的适用范围非常有限。更为广泛意义上的算法说明义务还是需要从个人信息处理者的告知义务和说明义务去推导,这可能也是欧洲专家在GDPR专门规定个人针对自动化决策的保障措施条款的前提下,仍然需要从知情权条款去推导算法解释权的原因所在。概言之,在我国,算法说明义务不应当限于决策生成之后的解释说明,而应当囊括事前和事后的不同阶段,两者可以分别存在不同的规范依据。

三、算法说明义务的正当性证成

(一)个人信息处理者说明义务的正当性

1.说明义务的正当性论证框架:动态体系论的视角

无论是一般意义上的个人信息处理者说明义务,还是特定意义上的算法说明义务,都不是一项可以具备明确构成要件的义务。此时,在理论上可以求援于动态体系论,通过对若干关键要素的动态权衡、综合考量来论证和确立这种说明义务。动态体系论有别于秉持“全有全无”原则的构成要件论,也不是赋予裁判者无限的自由裁量权,而是一种由不同要素组成的模型1111。各该要素具有不同的强度,互相协作,从而提供一种法律上的判断和论证方法。动态体系论实际上是一种处于严格的构成要件论和宽泛的自由裁量论之间的中间道路,可避免过于严格和过于自由,寻得一种折中又不失理性的选择。当然,相比直接适用的构成要件而言,动态体系的运用需要更多的说理论证。在方法论上,动态体系论的应用过程,也正是一种理性的说理论证过程。

德国学者构建的用于论证说明义务的动态体系的要素包括信息需求、信息可能性和职责范围三个要素,我国有学者将之修正为信息重要性、披露可能性、期待合理性和信赖紧密度四个要素1212。从本质上看,三要素说和四要素说具有一致性。因为,所谓信息需求,实为站在信息需求方立场,依信息重要程度判断该信息需求应否得到法律上的承认,将此要素修正为“信息重要性”可谓更为直观。信息可能性和披露可能性主要是表述上的差异。所谓职责范围,也与潜在信息接收方的信赖相关。依四要素说,“义务人的‘职责’是确立合理信赖的进一步的出发点和标准”1313。我国学者将“职责范围”要素分解为期待合理性和信赖紧密度主要是针对缔约过程中的说明义务,于此而言,缔约过程中存在一方的合理期待和双方的信赖关系,期待合理性和信赖紧密度两个要素可谓“职责范围”要素在缔约领域的进一步细化。在论证个人信息处理者的说明义务以及进一步的算法说明义务时,此项义务的产生未必基于契约,双方未必存在信赖,因此,信赖紧密度该项要素不大适合。从而,笔者仍以德国学者提出的三要素说为论证基准。同时,为便于理解,合理汲取我国学者对前两个要素的修正表述,将需要讨论的要素表述为信息需求(信息重要性)、信息可能性(披露可能性)和职责范围。

2.个人信息处理者说明义务的正当性证成

在个人信息处理场合,被处理的个人信息可能影响人格尊严和自由发展,对个人而言具有重要性,在算法决策场合更是如此。自然人需要知道个人信息被处理的方式、目的和范围,存在信息需求。个人信息处理者也存在披露可能性,且基于法律上的职责要求有义务去维护自然人的人格利益。初步来看,上述三个要素皆应满足。其实,动态体系论有别于构成要件论,各要素并非皆需满足,而是一种互相协作的关系,“如其中之一的强度特别高,其亦得代替其他要素。”1414即使是依据前述四要素说,信息重要性、披露可能性、期待合理性这三个要素在个人信息处理场合均较为强烈。唯信赖紧密度这个要素较弱,但不影响说明义务的存在。因此,依据动态体系论下说明义务的论证框架,无论是三要素说,还是四要素说,个人信息处理者的说明义务都可以得到证成。

当然,上述动态体系论下的要素不仅可以证成说明义务,也相应地限定了说明义务的范围,尤其是前两个要素。其一,说明的信息内容应当具有重要性,若是不重要的信息,个人信息处理者只需要满足一般的告知义务,无需进一步地满足说明要求。其二,可予说明的信息内容还应当具有披露可能性,在算法场合,尤为如此。随着人工智能和机器学习的发展,算法的专业性和复杂性在不断增加,有些具体的技术细节可能不具有披露可能性。这对于后文构建算法说明义务的限度和范围具有重要意义。

进一步而言,动态体系论的要素并非凭空运作,而是构建在基本价值的基础之上,不同要素之间权重的确定也取决于规则蕴含的基本价值1515。个人信息保护的基本价值取向于尊重人格尊严及自由发展。这具有比较法和法哲学上的足够底蕴。在康德的哲学思想中,人具有独立价值,应作为目的,而不能成为其他人实现其利益的手段。这种伦理学上的人格主义是德国《民法典》的精神基础1616。我国《民法典》更为强调人格权的保护,专设人格权编,更是体现了伦理学上的人格主义思想。说明义务是告知义务的升级版和强化版,这一升级强化的价值基础正是为了更好地维护人格尊严及自由发展。说明义务的存在有利于维护自然人的决定自由1717,可更好地保护个人信息。除此之外,告知义务还旨在解决信息提供者和处理者之间的信息不对称问题。为了实现这两个目的,告知义务绝不能流于形式,有赖于告知者对重点事项的解释说明,否则个人信息保护的价值取向和规范意旨就会落空。

说明义务不仅在规范和价值层面可以得到证成,也反映着实践需求。在大数据时代,有别于数据财产权益的保护,个人信息的保护并不存在自发和内在的技术驱动机制1818。反而,技术发展具有内在的动力去过度使用个人信息。个人信息处理者的说明义务是针对个人信息保护的技术驱动机制缺乏的一种弥补措施。说明义务的存在,有助于避免个人信息的盲目和过度使用。在这方面,法律干预、义务设定是对技术发展中可能出现的失衡状态的一种纠正措施。

(二)算法说明义务的补强理由

算法说明义务的理论证成,除了共享前述个人信息处理者说明义务的正当理论之外,还具有额外的补强理由,具体如下:

第一,算法决策具有权力内涵,算法说明义务旨在保障算法的可责性和透明度,是落实权力问责机制的需要。在大数据时代,算法是数据技术中的“基础语言”,有着举足轻重的作用。算法决策也有效率上的优势,可提高人类社会的运转效率,促进社会福利。算法决策也可排除人为的情感干扰,更为理性,更具逻辑性。基于这些优势,算法决策有着广泛的应用空间,将日益普遍。在实际应用中,算法决策不仅仅是一种技术工具,它还产生了权力内涵,可对个人产生实质性的影响。即使运用算法的是私主体,腾讯、阿里、百度等网络平台已经日益嵌入人们生活,其商业属性和公共属性已经难解难分1919。这些平台已成为公共生活空间,其算法将对不特定多数人的生活产生影响。依莱斯格的网络法理论,互联网和网络空间在本质上受到代码的规制,人们在代码的规制下生活2020。在大数据时代,算法具有了同样的规制内涵,产生了规制人们生活之力。有学者更是直接认为,算法权力是“一种准国家权力的权力”2121。从而,对算法的规制也应按照规制公权力的思路展开。在当代社会,权力的行使普遍奉行透明和信息公开原则。由此角度,算法说明义务的存在,并不仅仅是对技术性事项的解释说明,也是对权力行使的逻辑及理由的必要说明。如无算法说明义务,算法决策中就会布满黑箱,决策权力将不受限制。此外,算法说明义务不仅体现着维护权力问责机制的实质正义,也体现着维护当事人问责和救济权利的程序正义。在算法得以解释和说明的基础上,当事人才能提出反驳或要求重新审查。算法的解释说明是这些相应程序的基础,可从实质和程序两方面保障和落实权力问责机制。

第二,算法说明义务的存在是解决算法信任危机的需要。传统上,决策的方式包括个人决策、集体决策等。集体决策是一种缓解个人决策压力的制度,也是一种逃避决策者个人责任的制度。与以牺牲效率为代价的集体决策相比,算法决策不仅可以提高效率,还可以转嫁决策风险、规避错误决策责任。通过集体决策在当代社会的盛行可以预见,算法决策在未来科技社会也将得到普遍实施。然而,算法决策和其他类型的决策一样,都会面临信任危机。集体决策的基本逻辑是精英决策,一般是由某团体内部的精英分子和权威人士组成小型决策机构。受决策影响者对决策结果的信服建立在对决策者的信赖基础之上。而算法决策由机器执行,人类对之的信任危机将更为突出。在诉诸权威之外,解决信任危机的主要方法是解释说明。由此,对算法的解释说明也是算法信任危机的解决方案中不可或缺的重要组成部分。

第三,算法说明义务还具有制度激励功能,可促进更为透明、更为可靠的算法的研发和诞生。若无此义务,算法就会朝着黑暗的方向前行,“算法黑箱”不仅可能会因此合法化,而且还会得到持续的制度支撑和发展动力。恰当的法律规范和义务配置有助于促进技术的良性发展。若要使“科技向善”,不仅需要科技产业界将之作为一种理念和口号,也需要作为行为规范的法律规则尤其是义务规则的指引。

总之,算法说明义务具有十足的正当性理由,足以证成。然而,在另一方面,它也面临着一些障碍。算法说明义务正是在正反两方面的理由碰撞之中生存,这些理由的相互碰撞也决定了该项义务的范围和限度。

四、算法说明义务的范围和限度

(一)算法说明义务面临的障碍

1.算法说明的技术障碍和成本问题

算法说明义务存在的直接目的是使受算法决策影响者理解算法。然而,受众理解算法,存在不少障碍,这一方面受制于算法本身的专业性和复杂性,另一方面也受制于受众在技术方面的理解能力。AlphaGo战胜柯洁即是人工智能算法无法解释的典型例证。如果程序员可以理解AlphaGo的算法,程序员也将成为杰出的棋手,甚至可以预测和破解其算法,从而战胜它。计算机算法往往由复杂的代码构成,绝非“1+1=2”那么简单。诚如学者所言,在外行眼里,“代码即乱码,算法像魔法。”2222应用于商业决策和社会决策的算法更是如此,其往往是大型的算法设计,其中包含的参数和变量极多,且可能经历了数任程序员的修改与更新,其中还可能存在一些不能轻易修改、程序员自己都未必理解的“祖传代码”,算法的解释说明在技术上的确存在种种障碍2323。在机器深度学习的背景下,人工智能的神经网络层数和决策参数在不断增加和变化,算法也在不断的更新发展之中,算法的动态化、智能化更是加剧了算法解释说明的难度。可以说,对于人工智能算法而言,任何解释说明都难以达到充分性的要求。

由上可知,在算法说明义务的程度和范围的构造中,需要充分考虑算法设计者或应用者的解释成本问题,并将之与公众的潜在收益进行大致的衡量。从技术上而言,算法的解释说明的确存在“易读性”、可解释性或可说明性的问题。基于技术障碍和说明成本的考量,一个初步的结论是算法设计者或应用者只需要解释说明到逻辑思路层面,而不是解释说明具体的运算方法,更不必提供复杂的数学解释。

2.商业秘密的限制问题

作为一种技术方案,知识产权保护对算法的研发具有重要的激励作用。然而,算法在现行知识产权法律框架下很难获得专利权、著作权的保护,从而需要寻求商业秘密保护。第一,在专利权保护方面,智力活动的规则和方法不属于专利保护的的客体,这是公认原理。我国《专利法》第25条也是如此规定,而算法正是一种智力活动的规则和方法,其本身并不能获得专利。但是,包含算法的技术方案是一种技术领域的发明,应当可以获得专利。在大数据和人工智能发展背景下,国家知识产权局于2019年12月31日专门修改了《专利审查指南》,明确了抽象的算法本身不能获得专利,但包含算法的技术方案在满足新颖性、创造性、实用性等可专利性条件下可以获得专利2424。据此,算法可以通过纳入整体技术方案的形式间接地获利专利保护,但将算法作为整体技术方案的一部分的保护方式有一定的局限性,他人的侵权也限于对整体技术方案或等同方案的侵权。他人对其中算法的使用完全可以提出抗辩,认为其使用的是不受法律保护的部分。此外,从商业竞争的角度而言,公开算法、申请专利也非良策。因此,即使是通过专利制度来间接保护算法也具有很大的缺陷。第二,在著作权(版权)保护方面,算法可以分解为一系列的数字化的代码和命令,犹如其他语法字符串,这些代码和命令可以获得版权保护。但著作权法仅仅保护算法的表达层面,即代码和命令的符号组合,而不是算法本身。综上,专利保护和版权保护在算法保护上都存在不足,并非算法保护的首选之策。从而,商业秘密成了算法及其源代码的默认保护方式2525。美国一起典型判例即认为用于裁判量刑的算法属于商业秘密,无需披露2626。在我国,已有案例涉及算法系统的商业秘密保护和算法披露之间的冲突问题。在某案中,阿里妈妈公司基于算法系统,认定原告在推广中涉嫌违规,给予处罚,但以算法保密为由拒绝披露具体的处罚依据。法院从格式合同的规制着眼,认为单方免责的规定显失公平2727。其实,从算法的商业秘密保护角度看,阿里妈妈公司拒绝披露具体的处罚依据,也有一定的道理。毕竟,其中算法可能的确享有商业秘密保护。除了技术层面的算法之外,算法运用的数据也可能构成商业秘密。基于商业秘密的特性,算法及其数据的商业秘密保护将对算法披露和说明构成实质性的限制。

以商业秘密保护之由,拒绝算法的披露和说明,无疑会产生一定的负面效应。商业秘密保护缺乏明确的边界,也不像权利化的著作权、专利权那样存在法定的限制和例外,从而缺乏明确的权利保护的平衡机制,需要在个案中进行利益衡量,这就导致了算法商业秘密保护的复杂性。更为重要的是,商业秘密缺乏也不可能具有公示制度,故而号称受到商业秘密保护的算法到底能否构成商业秘密,旁人无从得知。正如学者指出,如果不先公开和检查源代码,他人就不可能知道一种算法是否可以作为商业秘密2828。因此,即使决策程序使用的软件代码和算法来自公有领域,算法所有人或使用人仍可能声称其属于商业秘密,以此名义,不予披露,拒绝解释。算法的商业秘密保护实际上是认可“算法黑箱”,并在一定程度上将之合理化,与权力行使的透明原则相悖。

如何解决算法的解释说明和商业秘密保护之间的冲突,是一个较为棘手的问题。第一种思路是个人信息保护优先于商业秘密保护。欧洲有学者认为,与保护商业秘密相比,GDPR更倾向于强化对个人数据权利的保护,因此,建立在个人数据权利基础上的算法解释权相较于商业秘密具有优先地位2929。在中国法的语境之下,个人信息和商业秘密属于等阶的权益,尽管不少学者主张对这两项客体予以权利化的保护,但立法上并没有明确地采取权利化的表述。因此,权利化的个人数据利益高于非权利化的商业秘密利益,这在欧盟法的语境下可能成立,但在中国法的语境下并不当然成立。另一种思路仍然是寻求比商业秘密位阶更高的利益。在这方面,公共利益的概念无疑可以出场。我国有学者即认为,公共利益的存在可以在特定情形下否定算法的商业秘密保护3030。的确,公共利益可以构成对民事权益的限制,但其适用空间也极为有限。只有当算法披露涉及公共利益时,才能动用这个理由。显然,并不是所有的算法决策都涉及公共利益;反而,大多数基于个人信息处理的算法决策可能只涉及个人利益,而不是公共利益。

综上所述,我们很难找出一个普适性的理由,来使算法说明义务凌驾于算法的商业秘密保护之上,后者的确将构成对前者的限制。据此,可以说明的主要是系统功能以及算法的一般逻辑和主要参数,而不包括详细的参数和权重,后者往往落入商业秘密的保护范畴。需强调的是,商业秘密保护对算法解释说明可以起到限制作用,但不是绝对的拒绝。在两项冲突的利益面前,探讨某项旨在保护其中一种利益的措施之程度是否合理时,可借鉴比例原则的思想。比例原则的本质在于“禁止过度”,在民事领域也有着广泛的应用空间3131。基于比例原则的思想,为了保护个人权益,要求算法的解释说明,可符合适当性的要求;只要将对算法商业秘密保护的影响控制在最小范围之内,也可符合必要性的要求。但狭义比例原则也要求以最缓和的手段来实现算法说明的目的。由此,算法说明义务需要以最为缓和的方法进行,减少和避免对商业秘密的侵害。

3.决策系统的人为干扰和滥用问题

面对技术日渐深入人类生活各个领域,有人会对技术进行博弈,这是可以预见的。这种博弈可能导致对算法决策系统的干扰和滥用。在现实中,针对主流的信用评分系统,黑市中的“刷分”产业链已然形成3232

在防止算法的博弈和作弊方面,算法保密具有独特的内在价值。匿名和保密可促进公平,这似乎是不证自明的公理。学术期刊普遍推行的同行专家匿名评审即是一个典型的例证。同理,将算法保密,可避免算法博弈、数据作弊等人为干扰,有利于所有人都在公平的状态下获得分析和评价。这对正在形成的算法社会的秩序构建具有不可忽视的社会价值。正因为如此,某些决策的过程和依据必须保持晦涩不明,以免他人博弈3333。若信用评分系统的算法完全公开和透明,刷分和博弈现象将更加猖獗。

4.产业竞争和技术发展需要算法保持复杂和晦涩

就产业竞争而言,算法越是复杂和晦涩,就越是难以被反向工程所破解,其竞争优势也会越明显。从竞争的角度看,算法开发者具有内在动力去保持算法的复杂性和晦涩性,这会致使算法难以得到充分的解释。

就技术发展而言,算法只有超越人类智慧,才能给人类带来更多益处。如果要求算法决策的方法必须为人类所理解,这不仅可能与事实不符,也可能会阻碍算法技术的创新发展。由此角度而言,算法是不能被人类所充分说明的。若法律对算法开发者或使用者施加充分公开和完全透明的说明义务,可能会阻碍科技的创新发展,不利于社会的进步。

总之,从算法披露和说明的可能性和成本问题、保护商业秘密的需要、防止决策系统受到人为干扰和滥用的需要以及产业竞争与技术发展的需要等不同角度,都可以发现算法说明义务面临着各种阻力。这种抵制性理由与算法说明义务的正当性理由相互作用,只能导向有限的算法说明义务。

(二)算法说明义务的说明范围及其限度

算法说明义务的说明范围及其限度其实是一个问题,可归结为:信息处理者需要就哪些事项进行说明?回答这一问题时,自然也会明确信息处理者不需要就哪些事项进行说明。

在比较法上,算法说明义务的范围和限度也是个棘手的问题,在个人数据保护领域较为领先的欧盟也缺乏明确的答案。欧洲学者近年来展开的“算法解释权”之争,其中不仅涉及该项权利是否存在,也涉及该项权利的范围和限度问题。如前提及,欧盟官方咨议机构发布的相关适用指南认可了“算法解释权”,但对于自然人如何行使这些权利,该指南却语焉不详。在比较法经验不足的情况下,我们还是需要根据算法说明义务的基本原理去明确和限定其范围。

首先需要分析和明确的问题是,算法说明的对象是限于一般意义上的系统功能,还是可以包括对特定决定的算法决策过程所作的解释说明?与之相关,可进一步澄清和明确算法说明义务是事前的说明义务抑或是事后的说明义务。事前解释侧重于解释系统功能,而无法就一个特定决定的理由依据进行说明。事后解释的内容则可囊括系统功能和特定决定的理由依据3434。比如,就采用算法决策的信用评分系统而言,个人信息处理者在事前能解释和说明的是系统的一般逻辑、使用的数据类型、算法决策的目的以及预期用途;事后解释则可进一步说明一个特定的评分是如何形成的,这就需要结合信息主体的个体情况对其数据和权重进行说明。可见,事后解释是一种更倾向于个体主义的解释,也将会透露出更多的有助于理解算法决策的信息,具有一定优势,应予肯定。从个人信息保护立场出发,透明度原则应当贯穿于个人信息的使用、分析等不同阶段,以使个人获得算法决策的准确性、有效性和不歧视的保障3535

我国《个人信息保护法》第24条关于个人针对自动化决策的保障措施条款中规定的算法说明义务针对的是已经作出决定的自动化决策,是一种事后说明。尽管事后说明对于保护个人信息权益而言非常重要,但同样不能忽视事前说明的重要性。我国法律对“个人信息的处理”进行了极为广义的界定,不限于狭义上的加工处理,还包括收集、提供、公开等,并且法律没有进行穷尽列举。相应地,个人信息处理的告知义务和说明义务也可贯穿于个人信息“处理”的全过程。因此,我国法下的个人信息处理者的说明义务不限于事后说明,也包括加工处理、使用中的说明,还可以是事前对系统功能等事项的说明。相应地,算法说明义务既包括事后说明,也包括事前说明,既涉及面向特定对象、就特定决策进行的解释说明,也涉及就一般意义上的系统功能等事项的说明。只有这种覆盖个人信息处理全阶段的说明义务,才能充分保障个人在算法决策中的权益。

其次,从技术角度而言,算法的解释说明到底应该解释到什么程度?复杂的数学解释往往超出了普通人的理解能力,既不必要,也不可行。欧盟的态度也是如此,信息处理者只需提供关于算法逻辑的有用信息。至于何为有用信息,这一判断具有事实依赖性,法律上难以形成明确的标准。欧盟指南在附件中也只是提供了一份“良好做法建议”,建议个人信息处理者以明白易懂的方式向自然人提供诸如以下信息:在生成用户画像和分析决策过程中已经或将要使用的数据类别;这些数据类型具有相关性的原因;自动化决策中使用的用户画像是如何生成的,包括自动化决策中使用的统计信息;为何此画像与自动化决策相关以及如何将其用于针对某个自然人的决策3636。笔者认为,在算法解释说明的技术层面,重点不应该放在算法的具体技术细节,而应该是整体方案、技术本质、基本逻辑、主要参数、大致权重和潜在风险等关键信息。但是,只是笼统地披露整体方案和技术本质尚无济于事,不能满足算法说明义务的程度要求。比如,我国最为著名的信用评分系统———芝麻信用———公开披露的算法是“运用云计算及机器学习等技术,通过逻辑回归、决策树、随机森林等模型算法,对各维度数据进行综合处理和评估”3737,这就显得不足。什么是逻辑回归、决策树和随机森林?这些术语根本不便普通人理解和知情,“综合处理和评估”更是模糊且笼统的表述。个人信息处理者的披露说明应不限于此,算法技术的基本逻辑和主要参数应可披露,技术的潜在风险也可加以说明,这并不会对信息处理者带来过多的成本,也不会影响其对算法的商业秘密保护。毕竟,商业秘密保护的是秘密点,这些模型算法的基本逻辑和主要参数很难落入商业秘密保护范畴。只是披露基本逻辑和主要参数,而不披露具体的参数和权重,也很难被用户用于博弈,造成滥用,也不会影响产业竞争和技术发展。其实,个人通过广泛检索,还是可以弄清逻辑回归、决策树和随机森林等模型算法的基本逻辑的,但会面临较高的查找和学习成本。既然信息处理者可以以较低成本披露这些算法的基本逻辑,就应当基于告知义务的基本宗旨,予以披露,以便促进个人知情。此外,技术层面的算法披露的一个障碍是一般的自然人未必能够理解,这就要求在风险和敏感度较高的决策领域,使用人类可以解释和理解的技术方案和决策方法,从而规避不可控制的风险。

最后是算法说明的范围限于算法本身,还是包括算法的应用?其实,技术本身是无害的,对个人权益造成侵害的往往是算法应用,而不是算法本身。因此,算法说明的重点之一应当是算法的具体应用方式。比如,算法决策的结果是用于信用评分、工作评估、定向广告还是其他用途?在应用过程中,是否存在人工干预?如果存在,人工干预的程度如何?决策结果是否可以受到重新审查?其条件和程序如何?当然,从算法应用着手进行解释,仍然难以回避对算法技术方案的解释,两者应当相辅相成。同样以国内最为著名的芝麻信用评分为例,其在算法应用方面仅仅说明了“较高的芝麻分可以帮助用户获得更高效、更优质的服务”3838,这也显得不够。这些评分到底作何用途,会对个人产生什么影响,应当予以较为清晰的说明。

(三)算法说明义务“有限版”的有益补充

个人信息保护原则上奉行私法自治。当私法自治存在不足时,则需动用公私法协同规制的方案。在算法决策场合,这也是由算法本身的特征决定的。算法风险高度分散、形态多样,充满着很多不确定性,需要构建从不同的风险链条节点介入、由不同主体参与的规制谱系3939

算法说明可以打开“算法黑箱”,最大程度地促使关于算法的基本逻辑、主要参数、大致权重、具体用途及潜在风险等关键信息和有用信息的披露,以最大程度地保障个人知情。为此目的,这些信息应当以通常理性人可以理解的方式进行说明。另一方面,具体的技术细节和复杂的数学解释往往超出了普通大众的理解能力,通常也超出了保障个人知情同意的需要。有关具体参数和权重的技术细节还可能构成商业秘密保护的秘密点,因此,一些“算法黑箱”可能无法被彻底打破。前文也已论及,要求算法的彻底公开和完全披露也不尽合理。故而,出于商业秘密保护等限制因素,算法说明义务难免存在不足。如果算法决策可能存在的歧视和偏见恰好是由算法中的秘密点造成的,出于保护商业秘密的考虑而放弃对算法的监督,并不合理。此时,以第三方审计和监督的方式进行的算法问责制成为一个替补的合理选择,这既可以避免算法中的秘密点的公开,也可以促使算法受到专业人士的监督和控制,化解算法中的秘密点的潜在风险和危机。当然,算法问责制也存在外部监督成本较高、有效性也未必得到保障等问题。也正是因为如此,本文提倡的首要算法治理措施是算法说明义务。一般而言,算法的基本逻辑、主要参数、大致权重、具体用途及潜在风险等关键信息的披露可以确保个人的知情同意,也可以基本保障算法的透明度原则。当算法说明义务无法充分实现算法治理的目标、无法确定受决策的个人是否得到公平合理的对待时,才需要第三方审计和监督的介入。

在比较法上,欧盟倾向于以个人数据权利为基础开展算法治理,美国则倾向于通过算法审计和问责机制促进算法治理4040。两种模式各具优劣。中国可以汲取不同模式的优势,打造出算法治理的升级版和优化版。在方法论上,算法解释权或算法说明义务主要采取个体主义方法论,而算法问责制主要采取整体主义方法论。在算法说明义务之外,辅之以算法问责制,实际上是选择个体主义和整体主义兼具的算法治理之道。包括算法治理在内的社会治理均要从整体和个体两方面入手,方能不偏不倚,实现综合治理、协同治理。

五、结论

在应用算法的个人信息自动化决策场合,个人信息处理者(同时也是算法决策者)需要承担相应的说明义务,本文将之称为算法说明义务。这在规范上和理论上均可得到解释和证成,但同时也面临着障碍。因此,算法说明义务有一定限度。算法说明义务的目的在于提供算法的有用信息,主要包括技术和应用两大方面。在技术上,可以说明的是系统功能、技术本质、整体方案、基本逻辑、主要参数及大致权重、使用的数据类别和范围、数据的相关性、自动化决策的用户画像如何生成等有用信息。可不予说明的是算法的技术细节、具体运算方式、详细的参数和权重;动态化、智能化的人工智能神经网络层数和决策参数更是无需说明,在事实上也无法说明。在算法应用上,应当说明的是算法的用途和目的、算法决策可能存在的不足和风险、是否存在人工干预、对决策结果进行重新审查的条件和程序等信息。算法说明义务既包括事前说明,也包括面向特定对象、就特定决策进行的事后说明。该义务主要围绕算法这种个人信息的处理方式而展开,同时涉及个人信息处理的目的和范围,与一般意义上的信息处理者的说明义务在本质上具有一致性,可谓一脉相承。

本文从义务角度研究个人信息保护规范不仅具有学术上的转向作用,也具有重要的实践意义。我国学界对个人信息是权利还是权益存在理论争议。其实,无论是权利,还是权益,都存在对应的义务,违反义务才会产生法律责任。明确义务的内涵和范围,对法律的实施至关重要。因此,在理论上继续探讨个人信息权利(权益)的性质和地位之余,加强个人信息的保护义务研究,可深化对个人信息保护规范的理解,促进法律规则的实施。

(本文为文章摘录版,如需引用,参阅原文)

文章来源:现代法学 2021年4期

文献数据中心|DATA CENTER

© 2009-2021 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc