算法透明及算法解释问题在算法治理研究中一直居于中心位置。尽管此方面的技术研究正不断取得多元化的进展,当法学人面对法律制度中有关算法解释与算法透明度的实定法规则时,仍会发现如何弥合法律规范、技术与业态之间的张力并非易事,甚至颇为棘手。
当前,针对算法推荐服务的监管制度建设正在不断推进,其中优化算法可解释性及透明度的要求格外引人注目。根据《互联网信息服务算法推荐管理规定(征求意见稿)》(下称《算法推荐规定(征)》)第12条之规定,算法推荐服务提供者负有增强算法透明度及可解释性的义务。《关于加强互联网信息服务算法综合治理的指导意见》(下称《指导意见》),也对“推动算法公开透明”提出了专门要求。由此,优化算法可解释性及透明度的要求在政策层面被进一步强化,成为备受业界和社会关注的焦点。
然而,优化算法可解释性及透明度不仅在技术上颇为复杂,在法律与政策层面亦颇费思量。《中国禁止出口限制出口技术目录》(下称《技术目录》)中“限制出口部分”新增“基于数据分析的个性化信息推送服务技术”,这表明算法推荐的相关技术已经进入国家重点保护范围,一旦外泄将对国家利益产生不利影响,而增强算法透明度则意味着有更大的概率会使受《技术目录》保护的算法设计被破解。诚然,《技术目录》所限制的仅仅是技术的出口,但如果此项重要技术未经出口即已全盘泄露,则限制出口的规定也将很大程度上失去实质性意义。既要满足前者规定的算法透明度及可解释性义务,又要满足后者所包含的防止算法设计泄露之取向,实属颇具难度之挑战。此外,由于我国大量法律规范规定了商业秘密保护的条款,增强算法透明度及可解释性的义务与保护企业商业秘密的规范目标之间亦存在张力。不仅如此,优化算法可解释性及透明度还可能涉及算法安全乃至其背后的数据安全问题。如何平衡多方面的价值保护需求,引人深思。
一、算法可解释性及算法透明的技术基础
《算法推荐规定(征)》第12条中“优化”的对象有二:一是透明度,一是可解释性,可解释性部分关系到算法设计本身,透明度则主要关系到后续的解释与说明,需要分别阐明其技术基础。
(一)可解释性
法学界此前相关研究提及可解释性者较多,但真正说明何为“可解释性”者寥寥无几,并且相关认识失之偏颇。例如,有学者认为算法的解释性可以分为两类:“一是算法模型是如何运行的,此谓‘功能解释’;二是算法行为的事后解释,即算法模型到底带来了什么,包含自然语言的解释、算法模型的可视化并能通过举例进行解释。”
迄今为止,“可解释性”尚不存在十分精确的共识性定义,学界与实务界通常从相对主观的角度进行描述。可解释性一词的来源有二:一是“可阐释的机器学习”(Interpretable Machine Learning)中的“interpretable”,二是“可解释的人工智能”(Explainable Artificial Intelligence)中的“explainable”,
(二)算法透明度
算法透明度是指“由算法的设计使用者披露有关算法如何部署、如何工作以及如何使用算法等相关信息,以期由监管部门或第三方进行监管的制度”。
在法学界,柯格里安尼斯与雷尔(Cary Coglianese & David Lehr)对算法透明的研究颇有代表性。他们将透明度分为“鱼缸型透明”和“析理型透明”(fishbowl transparency and reasoned transparency)两种,“鱼缸型透明”以鱼缸为隐喻,指公众能够从内部观察政府活动,能够获取工作人员正在做何事的信息,主要解决“是什么”的问题;“析理型透明”则强调政府通过说明理由解释其为何如此行动的重要性,主要解决“为什么”的问题,二者相关联但各有侧重。
因此,我们可以大致认为,算法透明即要求以一定的方式和程度向用户或公众说明自动化决策的内在逻辑,尤其是解释用户或公众所关心的特定因素对算法决策的具体影响。由于商业秘密、算法的复杂性和所谓“算法黑箱”的存在,算法透明度并不总是适合通过披露源代码的方式实现。
当然,算法透明度可以借助一定的技术机制(“算法解释器”)得以更充分地实现。在深度学习算法自身可解释性不加优化的情况下,使用算法解释器也是一种实现算法透明度的方法,常见的解释器类型包括决策树、特征重要性、敏感性分析、原型选择、激活最大化等,以及部分基于上述方法的可视化解释器。
由上述原理分析可知,算法可解释性是算法模型的客观属性,即某一算法在技术架构上是否具备了作算法解释的条件;算法透明度则是算法运行结果与主观预期的关系,即对某一算法应用所作的解释说明在多大程度上能够展现算法决策的内在逻辑以及特定因素在算法中的实际影响力,使算法运行结果能够符合用户的主观认知与预期。因此,确定算法可解释性和算法透明度的时间点也不尽一致。理论上,算法设计完成时,算法的可解释性程度就已可确定,而此时算法透明度可能仍接近于零,必须经由事后的披露、解释和说明工作满足透明度的要求。不仅如此,由于自解释模型的存在,算法可解释性与透明度要求的满足可能出现完全不一致的结果:对于规模较大的自解释模型,如果模型的复杂性太高,例如决策树庞大且结构繁复,不披露参数或者决策树结构的话,即使是专家也比较难理解其运行逻辑,此时就出现了几乎完全满足可解释性要求但几乎完全不满足透明度要求的结果。相反,对超大型人工智能算法进行代码开源,再加上简要的原理说明,已经很大程度上满足了算法透明度要求(公开源代码是算法透明方面最为激进的主张,
二、优化算法透明度及可解释性要求的规范内涵
《算法推荐规定(征)》第12条规定的“算法推荐服务提供者应当综合运用内容去重、打散干预等策略……”规定了优化算法可解释性及透明度的要求和对象,但却没有对这两种要求进行深入区分,也未言明其技术路线基础,引发了法律解释的多种可能性。优化算法可解释性及透明度的要求在草案编制时或许是出于同一目的,但一旦草案中的条款成为现行有效的法律规定,对其内涵的解读就有可能产生新的指向。在法律解释方法上,旨在探寻立法原旨的解释也仅仅是解释方法中的一种,如果立法原意不够清晰,大量潜在的可能解释就有机会转变为现实,而只要相关解释并非全然不合理,法律实践就有可能接纳。美国行政法中近三十多年来最为备受关注的案件“雪佛龙案”
优化算法的可解释性义务本质上针对的是算法设计。要求算法可解释性的实质在于保证算法模型的设计符合法律要求,使算法能够被监管者知悉是否在法律认可的正当范围内运行。我们可以大致将对深度学习算法的可解释性要求视作一种规则化变换,即把包含卷积运算和隐层的神经网络转换为对输入元素的处理规则,此种处理规则是条件确定而结果可预测的。如果采用决策树等自解释模型,达成技术上的“可解释性”目标基本上不需要额外工作。当然,优化可解释性并不要求必须采用自解释模型,也不需要实际上披露数据或模型,只要能够提供有效的事后解释,或者采用可解释性较强的深度学习算法模型(例如胶囊网络、激活逻辑推理网络等,
要求算法透明度的实质在于确保用户或公众能够一定程度上了解算法运行的原理,并对涉及其权益的算法决策建立合理预期。《指导意见》将“保护网民合理权益”与“促进算法公开透明”紧密联结,即是一个典型实例。实践中,尽管算法设计可以预先搭建算法解释模块或为算法解释预留接口,但本质上算法透明度并非来源于算法设计本身,而是来源于运营者对用户(或公众等其他主体)的说明和解释。
与优化算法可解释性类似,优化算法透明度也存在“优化”的程度问题,这一问题的潜在影响极为复杂。简单展示算法设计的基本原理和目的,与完全披露源代码、算法运行流程图及关键参数等内容,对建立不同程度的用户预期有一定影响,而对企业的影响更有云泥之别。技术上,甚至不必披露完整的代码或计算过程,只需要披露某些关键超参数或算法细节,算法模型就有被外界通过技术方法窃取的可能性。算法模型的破解对于不同企业的影响显然可能有较大差别。例如,对于主营外卖配送的平台企业而言,其最根本的竞争力来源有可能是规模、管理和地推业务团队等,算法更多的是起优化匹配、提升效率等作用,即便公开算法模型甚至关键超参数,对企业也不会产生致命性影响;但对于基于算法推荐实现个性化内容推送的图文媒体或视频平台,其根本(甚至几乎全部)的竞争力来源就是算法,这也是为何“基于数据分析的个性化信息推送服务技术”能被列入《技术目录》的原因。后者的算法一旦被破解、窃取,不仅将使企业面临生死存亡的考验,也使算法模型背后的训练数据面临被攻击者通过训练影子模型(shadow model)等手段窃取的危险,还可能触及国家进出口管理秩序乃至信息技术产业国际竞争力等重大法益。
因此,我们在此必须追问算法透明度是“对谁透明”的问题:优化算法透明度义务的过程中,很有可能出现算法已被专业人士完全破解,但普通用户仍然“一脸茫然”的情况。法律上频繁使用理性人、善良管理人、谨慎商人等“人格化标准”以确定法律关系的具体内容,
在复杂的价值考量中,“优化”这一概念可以作为比较灵活的“价值平衡器”。需要注意的是,不能从数理科学或工程学(线性或非线性规划)的意义上理解优化,
三、优化算法可解释性及透明度义务的结构化展开
(一)优化算法可解释性义务的结构化展开
算法的“可解释性”存在程度上的区别,业界对于某些超大型人工智能算法,只能初步提供宽泛的规则化表述;而许多中小型的深度学习程序已经可以被充分解释。因此,我们不妨将优化算法可解释性义务中的“优化”大致划分为初步优化、适度优化和充分优化三个层次,三个层次的可解释性分别对应低精度的规则化变换能力、高精度的规则化变换能力和几乎完全精确的规则化变换能力,此种能力既可以伴随算法设计形成,也可以通过提供解释技术的方式事后补充。三个层次的适用对象、耗费成本及优化难度存在巨大差异,强求企业为满足算法可解释性要求一刀切地“推倒重来”,将可能违反规制的合比例性要求,对企业和技术创新造成难以预料的重大负面影响。
现实中,已有的算法标准在可解释性要求方面已经开始针对不同业务和场景进行区分。例如,人工智能领域备受关注的行业标准《人工智能算法金融应用评价规范》(JR/T 0221—2021)在第7部分“可解释性评价”中以复合性的框架对可解释性提出了全面要求,此种要求区分资金类场景和非资金类场景,前者需要遵守的要求远比后者多,特别是在模型无关可解释性方面,对于部分依赖图、个体条件期望、累积局部效应等六类算法解释技术要求中,资金类场景需满足任意三项要求,而非资金类场景仅需满足任意一项要求。这一区分与比例原则的精神是相符的,对于算法推荐领域亦有积极的借鉴意义。
由于算法可解释性义务应当主要指向监管方,优化层次的选择应当依据监管需求与优化成本的不同,对不同企业承担的义务作层次化的界分。监管的需求越大、规制负担越轻,越是应当要求承担较高层次的优化义务。根据《算法推荐规定(征)》中体现的全面加强监管之取向,监管需求在决定优化义务程度时处于主导地位。如果涉及公共议题设置和公共舆论导向(如主要平台搜索热榜话题的设置与排列)或公民生命权等重要法益(如医疗类商业广告的算法推荐),监管需求处于绝对优位的情况下,即可考虑设置最高层次的优化算法可解释性义务。这不仅对于监管方而言是一种便利,对于互联网企业的业务合规和风险防控也具有基础性的意义。如果监管需求一般而规制成本高昂,则承担初步优化义务即可。此外,制度设计上应当既能保证监管部门准确审查算法推荐服务提供者是否进行了一定程度的优化,又要防止监管部门的个别工作人员利用职权从优化可解释性的算法设计中破解和窃取相关模型、超参数甚至原始数据。自技术层面观之,实现算法解释并不必然要求打开“算法黑箱”,
(二)优化算法透明度义务的结构化展开
优化算法透明度义务的结构化展开涉及复杂的价值平衡,并且主要面向用户进行解释,这是更为棘手的挑战。优化算法透明度义务中的“优化”可以从优化效果层面大致划分为初步优化、适度优化和充分优化三个层次,分别对应展示主要技术原理及基本逻辑、提供精确的主要局部元素影响分析或包含一定取值区间的全局元素影响分析、提供完整而精确的全局输入影响分析等三个目标。1.初步优化。使优化算法透明度义务止于初步优化的因素主要包括知识产权保护、恶意竞争风险、进出口秩序管理及技术上的可行性。现实中,对基于大型或超大型深度学习算法且以此为企业核心竞争力的算法应用而言,大幅度优化算法透明度的风险和成本都显而易见,如果企业所应用的算法被明确列入《技术目录》,选择初步优化就有更充分的理由。对于“基于数据分析的个性化信息推送服务技术”的算法而言,较高的算法透明度还有可能造成泄露个人信息的风险。如果基于优化算法可解释性已足以使相关推荐算法受到有效监管,并且用户在其权益面临重大不利影响时能够有效行使算法解释请求权,设置过高的优化算法透明度义务,就容易违反比例原则中的必要性原则,形成过度规制。2.适度优化。如果不存在上述重要原因的阻却效果,适度优化应当是大部分基于机器学习的算法推荐服务提供者所面对的一般要求。因为优化算法透明度主要是面向用户,适度优化的程度设置应当与用户权益保障的实际需求及用户群体的主要特点相匹配。在此种意义上,适度优化应当采取实用主义解释理论的立场,即“解释的优劣在于是否满足接受解释者的兴趣,它是心理学的和场景论的”。
四、优化算法可解释性及透明度义务的制度设计:迈向算法解释的“中国方案”
我国在算法治理的制度层面正日益重视可解释性及透明度义务。尽管此种要求尚未转化为正式的法律规范,但由此可以预见的是,未来我国立法中对算法可解释性及透明度将进一步提出强有力的要求。尽管算法可解释性及透明度的价值已经获得多国立法者的广泛共识,
(一)进一步界定可解释性与算法透明度之概念
由于业界对可解释性与算法透明度的认识尚较模糊,立法应进一步明确界定其概念内涵。对两个概念进行界定的具体形式,可以采取类似于《个人信息保护法》在附则中对“去识别性”及“匿名性”进行专门解释的方案,以单独的条或款分别说明算法可解释性与算法透明度的内涵。在此基础上,《算法推荐规定(征)》第12条的规定可以拆分为两款,对两种义务分别加以规定,基于不同技术原理,有针对性地充分发挥算法可解释性及算法透明度作为治理工具的不同作用。对概念的充分展开有赖于优化算法可解释性与算法透明度义务的具体内容。首先,相关义务的内容表述应当分别明确优化算法可解释性与算法透明度义务主要指向的对象,优化可解释性的义务履行对象主要指向监管方和评估方,优化透明度的义务履行对象主要指向用户。其次,优化义务的核心内容应得到体现。优化可解释性义务体现为增进规则化变换的精确性,而优化算法透明度义务体现为具备一定教育程度的普通用户对算法运行原理的了解程度。因此,在法律规范有关两种义务的具体表述中,优化可解释性义务可进一步明确,要求算法推荐服务提供者通过比较简洁的规则尽可能准确地预测算法运行结果;优化透明度义务也可作进一步阐释,要求尽可能使用户了解算法运行原理,尤其是了解影响算法推荐结果的因素及其重要性程度(或影响力程度)。最后,界定两个概念的技术细节可由技术标准承载。
(二)明确优化算法可解释性与算法透明度义务与算法解释请求权之关系
《算法推荐规定(征)》第15条第3款规定了用户的算法解释请求权及其他相关请求权,其中的“说明”可以被理解为算法解释。在算法推荐服务提供者负有优化算法可解释性与算法透明度义务的前提下,用户基于对其权益影响的主观判断即可发动算法解释请求权,这似乎对于算法推荐服务提供者可能产生相当大的负担;不过,由于“说明”的程度并未被限定,算法解释的形式和程度均较为灵活,又使得履行此种义务具有现实可行性。本款的算法解释义务属于面向单个用户、被动承担的义务,场景性和针对性更为明显,如果优化算法透明度义务的结果尚不足以澄清用户认为其权益受重大影响之疑惑,理论上就存在优化算法透明度义务与算法解释义务分置之必要性。然而,这意味着此种情形下提供算法解释的程度必然超过同一主体承担算法透明度义务的程度,鉴于后者本身就是复杂价值平衡的结果,进一步提升解释程度是否会引发重要商业秘密被破解等较大风险,值得斟酌。较为合理的一种折中方式是,针对特定用户的合理诉求,提供个性化的替代性解释方案,或者针对原有的算法透明度实现方案进行针对性的二次解释,即“对算法解释的解释”,以促使个别用户能够真正理解算法透明度报告等已有的解释。
(三)完善场景化、层次化的优化义务结构
如前所述,优化算法可解释性与算法透明度义务具有层次性,层次的具体确定取决于业务场景,而“场景”的实质是不同的法益保护需求。通常情况下,优化义务均应以适度优化为通常情形下的默认水平,初步优化与充分优化均作为特殊情况下的例外。未来立法可以列举若干与算法推荐相关的重要法益保护目标,例如在限制透明度一端包括涉及进出口限制的技术秘密、知识产权、算法安全、竞争秩序等,在支持透明度一端包括公民的平等权、青少年身心健康、关系公民生命权与健康权事项的知情权、公共安全风险等,通过判断是否涉及相关法益目标,具体决定优化义务层次的升降。
不仅如此,允许企业根据具体场景采取多元化手段实现算法可解释性及透明度亦为必要。部分算法解释方法实现简单但适用场景相当有限,部分算法解释方法实现复杂但泛化能力较强,此外部分算法解释方法可以广泛适用但会有所侧重,例如基于量化影响分析的算法透明度报告所保护的主要法益目标就是公平权(反歧视),
(四)通过技术标准中的多元化可选规则为优化提供指引
算法可解释性与透明度的具体实现包含一定技术含量,不宜全由法律规范径行规定,此时就需要技术标准发挥积极作用。现实中的技术标准可以起到复杂的利益平衡作用,进而在行政审判等法律实践活动中发挥规范效应。
结语
对算法推荐服务的监管需要我们深入考虑算法可解释性与透明度的技术基础及法理问题。自更抽象的层面观之,算法解释在算法治理中的基础性地位正日益受到学界与实务界的认可,优化算法可解释性与透明度义务很可能将是未来全球范围内算法治理的一致要求。深入算法解释的庞大“迷宫”,在当前和未来的算法治理中已不可避免。
尽管算法推荐服务提供者等市场主体面对此种义务可能顾虑重重,但相关法律规范的表述与阐释仍可为多方面法益保护目标的平衡提供空间。算法可解释性与算法透明度的实现路径多样,算法解释需求的场景化差异逐渐凸显,相关技术研究也正在日益活跃和深入。在此基础上,相关法律规范与技术标准越是充分体现算法治理的合比例性原则与价值平衡需求,企业就越有充分的机会以可承受的规制负担实现优化算法可解释性与透明度之目标。我们期待在综合平衡各种法益保护需求的基础上,更加公开、透明而可预测的算法推荐服务能够提供更积极的社会价值,带给用户和公众更充分的安全、知情、公平与自由。