论文精粹|INFORMATION
苏宇:优化算法可解释性及透明度义务之诠释与展开
管理员 发布时间:2022-10-02 19:10  点击:1799

算法透明及算法解释问题在算法治理研究中一直居于中心位置。尽管此方面的技术研究正不断取得多元化的进展,当法学人面对法律制度中有关算法解释与算法透明度的实定法规则时,仍会发现如何弥合法律规范、技术与业态之间的张力并非易事,甚至颇为棘手。

当前,针对算法推荐服务的监管制度建设正在不断推进,其中优化算法可解释性及透明度的要求格外引人注目。根据《互联网信息服务算法推荐管理规定(征求意见稿)》(下称《算法推荐规定(征)》)第12条之规定,算法推荐服务提供者负有增强算法透明度及可解释性的义务。《关于加强互联网信息服务算法综合治理的指导意见》(下称《指导意见》),也对“推动算法公开透明”提出了专门要求。由此,优化算法可解释性及透明度的要求在政策层面被进一步强化,成为备受业界和社会关注的焦点。

然而,优化算法可解释性及透明度不仅在技术上颇为复杂,在法律与政策层面亦颇费思量。《中国禁止出口限制出口技术目录》(下称《技术目录》)中“限制出口部分”新增“基于数据分析的个性化信息推送服务技术”,这表明算法推荐的相关技术已经进入国家重点保护范围,一旦外泄将对国家利益产生不利影响,而增强算法透明度则意味着有更大的概率会使受《技术目录》保护的算法设计被破解。诚然,《技术目录》所限制的仅仅是技术的出口,但如果此项重要技术未经出口即已全盘泄露,则限制出口的规定也将很大程度上失去实质性意义。既要满足前者规定的算法透明度及可解释性义务,又要满足后者所包含的防止算法设计泄露之取向,实属颇具难度之挑战。此外,由于我国大量法律规范规定了商业秘密保护的条款,增强算法透明度及可解释性的义务与保护企业商业秘密的规范目标之间亦存在张力。不仅如此,优化算法可解释性及透明度还可能涉及算法安全乃至其背后的数据安全问题。如何平衡多方面的价值保护需求,引人深思。

一、算法可解释性及算法透明的技术基础

《算法推荐规定(征)》第12条中“优化”的对象有二:一是透明度,一是可解释性,可解释性部分关系到算法设计本身,透明度则主要关系到后续的解释与说明,需要分别阐明其技术基础。

(一)可解释性

法学界此前相关研究提及可解释性者较多,但真正说明何为“可解释性”者寥寥无几,并且相关认识失之偏颇。例如,有学者认为算法的解释性可以分为两类:“一是算法模型是如何运行的,此谓‘功能解释’;二是算法行为的事后解释,即算法模型到底带来了什么,包含自然语言的解释、算法模型的可视化并能通过举例进行解释。”1显然,此种界定既不全面也不够精确。要探究“可解释性”的原始含义,必须充分理解算法解释的技术原理及实践,才能深入探索优化可解释性的路径与程度问题。

迄今为止,“可解释性”尚不存在十分精确的共识性定义,学界与实务界通常从相对主观的角度进行描述。可解释性一词的来源有二:一是“可阐释的机器学习”(Interpretable Machine Learning)中的“interpretable”,二是“可解释的人工智能”(Explainable Artificial Intelligence)中的“explainable”, 2后者更为常见。在主流学理认知中,“可解释性”依赖于“解释”的概念,而“解释”是指人类与(机器)决策者之间的一个交互面(interface),同时满足既是决策者的精确代理(accurate proxy),又能为人类所理解(comprehensible),可解释性即具备此种解释能力。3关于“可理解性”(comprehensibility),米卡尔斯基(Michalski)认为:“计算机归纳的结果应是指定实体的符号表述,在语义与结构上与人类专家观察类似实体所可能得出的结果类似。计算机的此种描述应作为单一的‘信息块’被理解,可以用自然语言直接阐释,并应以综合的方式将定性和定量概念联系起来。”4该定义可作如下解读:用人类生活世界的若干实体作为变量代替一切计算机生成的中间变量及参数,将机器学习的输出结果表述为关于这些实体的函数,且保持函数计算结果与机器学习结果的精确对应。当然,这是理想化的“可理解性”状态,此种函数不仅难以生成,部分情况下还不存在,因此只能“以综合的方式将定性和定量概念联系起来”。

(二)算法透明度

算法透明度是指“由算法的设计使用者披露有关算法如何部署、如何工作以及如何使用算法等相关信息,以期由监管部门或第三方进行监管的制度”。 5较之可解释性,算法透明度的价值色彩更浓,以至于技术界罕有尝试对算法透明进行严格定义。盖因此处的“透明”本质上是一种“政治技术”,旨在使(政治过程中的)含混不清之处历历可见,算法透明亦传承了此种意蕴。6总体上,算法透明更类似于原则性的提议,学界认识尚不一致,但仍有脉络可寻。7

在法学界,柯格里安尼斯与雷尔(Cary Coglianese & David Lehr)对算法透明的研究颇有代表性。他们将透明度分为“鱼缸型透明”和“析理型透明”(fishbowl transparency and reasoned transparency)两种,“鱼缸型透明”以鱼缸为隐喻,指公众能够从内部观察政府活动,能够获取工作人员正在做何事的信息,主要解决“是什么”的问题;“析理型透明”则强调政府通过说明理由解释其为何如此行动的重要性,主要解决“为什么”的问题,二者相关联但各有侧重。8对于算法治理而言,二者均须考虑,但鉴于深度学习的技术特点,主要的挑战在于析理型透明的实现。9这两种划分方式所针对的目标——个体效应与聚合效应、“是什么”和“为什么”正是整个算法透明研究所最为关心的问题。“从一般人能够理解的算法解释决策的结果或者解释算法决策的内在逻辑,从技术人员可以理解的参数再到公布源代码都可以成为算法透明的具体化实践”“法律应基于不同的场景对算法设定差别化的透明度要求”。10鉴于“主张算法透明的学者很少把代码公开作为唯一策略,而是把参数权重和公式的披露,甚至理由解释、结果告知、影响评估等内容也囊括在内”,11算法透明度显然超越了单纯的技术解释。

因此,我们可以大致认为,算法透明即要求以一定的方式和程度向用户或公众说明自动化决策的内在逻辑,尤其是解释用户或公众所关心的特定因素对算法决策的具体影响。由于商业秘密、算法的复杂性和所谓“算法黑箱”的存在,算法透明度并不总是适合通过披露源代码的方式实现。12要求披露源代码或公开技术细节程度的算法透明,不仅并无必要,也会抑制企业的创新动力。13因此,算法透明度要求往往是通过人为说明或解释的方式实现的,存在场景、方式和程度的差异,其中隐含了复杂的价值平衡:一方面是用户及公众的知情权及与此相关的消费者权益或行政程序法益,另一方面是技术创新、企业活力、知识产权保护甚至国家竞争力等价值,部分价值还未完全被法规范秩序所吸纳和整合。

当然,算法透明度可以借助一定的技术机制(“算法解释器”)得以更充分地实现。在深度学习算法自身可解释性不加优化的情况下,使用算法解释器也是一种实现算法透明度的方法,常见的解释器类型包括决策树、特征重要性、敏感性分析、原型选择、激活最大化等,以及部分基于上述方法的可视化解释器。14有些解释器只能解释特定的算法模型,有些解释器的解释能力则不局限于特定类型的算法,此类解释器被称为“不可知解释器”(Agnostic Explanator)。15有些功能较强大的不可知解释器能够提供跨模型的透明度报告,例如借助量化影响分析生成算法透明度报告(QII报告)就是一个典型实例。量化影响分析主要是基于干扰的解释,既包括衡量一个输入元素对系统决策结果的影响(单体QII),也包括衡量一个输入元素集合的影响(集合QII)及集合中单个元素的影响(边际QII)。16算法透明度报告能够显示个人及群体的各种元素(特性、标签)对算法决策中的实际影响,从而以人类可理解的方式揭示算法决策是否公平。获得算法透明度报告的主体不一定了解算法设计的内在逻辑和原理,但能清楚获知与自身相关的元素对于算法决策产生了何种影响。

由上述原理分析可知,算法可解释性是算法模型的客观属性,即某一算法在技术架构上是否具备了作算法解释的条件;算法透明度则是算法运行结果与主观预期的关系,即对某一算法应用所作的解释说明在多大程度上能够展现算法决策的内在逻辑以及特定因素在算法中的实际影响力,使算法运行结果能够符合用户的主观认知与预期。因此,确定算法可解释性和算法透明度的时间点也不尽一致。理论上,算法设计完成时,算法的可解释性程度就已可确定,而此时算法透明度可能仍接近于零,必须经由事后的披露、解释和说明工作满足透明度的要求。不仅如此,由于自解释模型的存在,算法可解释性与透明度要求的满足可能出现完全不一致的结果:对于规模较大的自解释模型,如果模型的复杂性太高,例如决策树庞大且结构繁复,不披露参数或者决策树结构的话,即使是专家也比较难理解其运行逻辑,此时就出现了几乎完全满足可解释性要求但几乎完全不满足透明度要求的结果。相反,对超大型人工智能算法进行代码开源,再加上简要的原理说明,已经很大程度上满足了算法透明度要求(公开源代码是算法透明方面最为激进的主张,17)但此种情形下算法可解释性几乎为零。基于二者的种种差异,在阐释优化算法透明度及可解释性要求的规范内涵时,也应有所区别。

二、优化算法透明度及可解释性要求的规范内涵

《算法推荐规定(征)》第12条规定的“算法推荐服务提供者应当综合运用内容去重、打散干预等策略……”规定了优化算法可解释性及透明度的要求和对象,但却没有对这两种要求进行深入区分,也未言明其技术路线基础,引发了法律解释的多种可能性。优化算法可解释性及透明度的要求在草案编制时或许是出于同一目的,但一旦草案中的条款成为现行有效的法律规定,对其内涵的解读就有可能产生新的指向。在法律解释方法上,旨在探寻立法原旨的解释也仅仅是解释方法中的一种,如果立法原意不够清晰,大量潜在的可能解释就有机会转变为现实,而只要相关解释并非全然不合理,法律实践就有可能接纳。美国行政法中近三十多年来最为备受关注的案件“雪佛龙案”18及由此产生的“雪佛龙两步法”(Chevron Two-Step)就是一个典型例证。19如果我们不纠结和局限于条文的原意,根据前述技术原理分析,显然此处优化算法可解释性及透明度的要求包含两个需要相对区分的义务,其规范内涵有一定差异,潜在影响更可能大相径庭。

优化算法的可解释性义务本质上针对的是算法设计。要求算法可解释性的实质在于保证算法模型的设计符合法律要求,使算法能够被监管者知悉是否在法律认可的正当范围内运行。我们可以大致将对深度学习算法的可解释性要求视作一种规则化变换,即把包含卷积运算和隐层的神经网络转换为对输入元素的处理规则,此种处理规则是条件确定而结果可预测的。如果采用决策树等自解释模型,达成技术上的“可解释性”目标基本上不需要额外工作。当然,优化可解释性并不要求必须采用自解释模型,也不需要实际上披露数据或模型,只要能够提供有效的事后解释,或者采用可解释性较强的深度学习算法模型(例如胶囊网络、激活逻辑推理网络等,20)也是对可解释性的增强。但是,实现算法可解释性的技术在庞大和复杂的模型面前表现不佳,21优化可解释性的要求对于大型和超大型人工智能算法而言,需要的工作量相当繁重,甚至可能需要将核心算法设计“推倒重来”。不过,由于“优化”是一个类似于不确定法律概念的术语,优化可解释性的程度尚可灵活把握。企业可以通过与履行算法透明度义务类似的方式,通过可视化、示例或元素权重排序等不完全精确的方式履行可解释性义务。

要求算法透明度的实质在于确保用户或公众能够一定程度上了解算法运行的原理,并对涉及其权益的算法决策建立合理预期。《指导意见》将“保护网民合理权益”与“促进算法公开透明”紧密联结,即是一个典型实例。实践中,尽管算法设计可以预先搭建算法解释模块或为算法解释预留接口,但本质上算法透明度并非来源于算法设计本身,而是来源于运营者对用户(或公众等其他主体)的说明和解释。

与优化算法可解释性类似,优化算法透明度也存在“优化”的程度问题,这一问题的潜在影响极为复杂。简单展示算法设计的基本原理和目的,与完全披露源代码、算法运行流程图及关键参数等内容,对建立不同程度的用户预期有一定影响,而对企业的影响更有云泥之别。技术上,甚至不必披露完整的代码或计算过程,只需要披露某些关键超参数或算法细节,算法模型就有被外界通过技术方法窃取的可能性。算法模型的破解对于不同企业的影响显然可能有较大差别。例如,对于主营外卖配送的平台企业而言,其最根本的竞争力来源有可能是规模、管理和地推业务团队等,算法更多的是起优化匹配、提升效率等作用,即便公开算法模型甚至关键超参数,对企业也不会产生致命性影响;但对于基于算法推荐实现个性化内容推送的图文媒体或视频平台,其根本(甚至几乎全部)的竞争力来源就是算法,这也是为何“基于数据分析的个性化信息推送服务技术”能被列入《技术目录》的原因。后者的算法一旦被破解、窃取,不仅将使企业面临生死存亡的考验,也使算法模型背后的训练数据面临被攻击者通过训练影子模型(shadow model)等手段窃取的危险,还可能触及国家进出口管理秩序乃至信息技术产业国际竞争力等重大法益。

因此,我们在此必须追问算法透明度是“对谁透明”的问题:优化算法透明度义务的过程中,很有可能出现算法已被专业人士完全破解,但普通用户仍然“一脸茫然”的情况。法律上频繁使用理性人、善良管理人、谨慎商人等“人格化标准”以确定法律关系的具体内容,22算法透明的受众也必须预设一个人格化标准以确定算法透明的实现程度。优化算法的可解释性义务与透明度义务还应当有一重隐含的关键区别,二者的法益保护目标也可以由此被有效区分。算法可解释性本身不要求实际的算法解释,而只是要求算法考虑各种元素的具体机理能够为专业人士所清晰认知、能够通过明确的规则式语法表达,此种状态不一定能增进普通人对算法的理解,但却非常有利于专业监管的开展。算法可解释性已被看作是便利算法模型审计(model audit)的工具,有助于评估算法模型的可靠性。23相比之下,算法透明度则更多地面向用户或公众,在商业算法领域,其对于知情权、公平交易权及相关其他消费者权益保护方面的作用更为显著,也因此更受法学界关注。毕竟一般消费者既缺乏理解大型算法的能力,也没有能力进行逆向工程等操作,如果缺乏算法透明度,其几乎没有能力比较算法决策结果的相对有效性和真实性。24优化算法可解释性与算法透明度的两种义务其实可以分别指向监管端与用户端,前者更加强调算法应用受到充分监管,满足风险可控、确保安全等目标,后者更加强调算法应用被充分知情,满足交易公平、选择自由等目标。两种义务在算法推荐服务提供者的义务群中实际上可以起到相互关联而又各自独当一面的基础性作用。

在复杂的价值考量中,“优化”这一概念可以作为比较灵活的“价值平衡器”。需要注意的是,不能从数理科学或工程学(线性或非线性规划)的意义上理解优化,25此处的“优化”显然更接近日常用语中的“优化”,即一种致力于改善现状的变化。尽管“优化”具有动态的趋向,但如果相关算法设计及应用已经实现了充分的可解释性与透明度要求,则也难言再需要“优化”。尽管《互联网信息服务算法推荐管理规定》不属于狭义上的“法律”,进而导致“优化”也不能作为严格意义上的“不确定法律概念”处理(严格意义上的不确定法律概念涉及立法与行政的关系),26但我们仍可借助不确定法律概念的技术性分类架构分析这一概念所承担的特殊角色。行政法上的不确定法律概念存在“经验概念”“价值概念”和“倾向概念”的三分法,27一旦我们进入此种观察视野,就会发现一个重要问题:优化算法可解释性义务中的“优化”在未来可以成为一个经验概念,因为可解释性已经越来越可以体现为客观的指标或特性;优化算法透明度中的“优化”则是一个需要主观评价的概念(尤其需要由缺乏技术基础的普通用户进行评价),隐含着复杂的价值平衡,更主要地属于价值概念。由此,优化算法可解释性与算法透明度义务可以分别从客观的技术架构方向和主观的价值平衡方向展开。

三、优化算法可解释性及透明度义务的结构化展开

(一)优化算法可解释性义务的结构化展开

算法的“可解释性”存在程度上的区别,业界对于某些超大型人工智能算法,只能初步提供宽泛的规则化表述;而许多中小型的深度学习程序已经可以被充分解释。因此,我们不妨将优化算法可解释性义务中的“优化”大致划分为初步优化、适度优化和充分优化三个层次,三个层次的可解释性分别对应低精度的规则化变换能力、高精度的规则化变换能力和几乎完全精确的规则化变换能力,此种能力既可以伴随算法设计形成,也可以通过提供解释技术的方式事后补充。三个层次的适用对象、耗费成本及优化难度存在巨大差异,强求企业为满足算法可解释性要求一刀切地“推倒重来”,将可能违反规制的合比例性要求,对企业和技术创新造成难以预料的重大负面影响。

现实中,已有的算法标准在可解释性要求方面已经开始针对不同业务和场景进行区分。例如,人工智能领域备受关注的行业标准《人工智能算法金融应用评价规范》(JR/T 0221—2021)在第7部分“可解释性评价”中以复合性的框架对可解释性提出了全面要求,此种要求区分资金类场景和非资金类场景,前者需要遵守的要求远比后者多,特别是在模型无关可解释性方面,对于部分依赖图、个体条件期望、累积局部效应等六类算法解释技术要求中,资金类场景需满足任意三项要求,而非资金类场景仅需满足任意一项要求。这一区分与比例原则的精神是相符的,对于算法推荐领域亦有积极的借鉴意义。

由于算法可解释性义务应当主要指向监管方,优化层次的选择应当依据监管需求与优化成本的不同,对不同企业承担的义务作层次化的界分。监管的需求越大、规制负担越轻,越是应当要求承担较高层次的优化义务。根据《算法推荐规定(征)》中体现的全面加强监管之取向,监管需求在决定优化义务程度时处于主导地位。如果涉及公共议题设置和公共舆论导向(如主要平台搜索热榜话题的设置与排列)或公民生命权等重要法益(如医疗类商业广告的算法推荐),监管需求处于绝对优位的情况下,即可考虑设置最高层次的优化算法可解释性义务。这不仅对于监管方而言是一种便利,对于互联网企业的业务合规和风险防控也具有基础性的意义。如果监管需求一般而规制成本高昂,则承担初步优化义务即可。此外,制度设计上应当既能保证监管部门准确审查算法推荐服务提供者是否进行了一定程度的优化,又要防止监管部门的个别工作人员利用职权从优化可解释性的算法设计中破解和窃取相关模型、超参数甚至原始数据。自技术层面观之,实现算法解释并不必然要求打开“算法黑箱”,28为防止监管风险,如非确实需要在充分优化层次上检视整个算法的全部运行机理,可以不必要求打开黑箱式的全局解释。

(二)优化算法透明度义务的结构化展开

优化算法透明度义务的结构化展开涉及复杂的价值平衡,并且主要面向用户进行解释,这是更为棘手的挑战。优化算法透明度义务中的“优化”可以从优化效果层面大致划分为初步优化、适度优化和充分优化三个层次,分别对应展示主要技术原理及基本逻辑、提供精确的主要局部元素影响分析或包含一定取值区间的全局元素影响分析、提供完整而精确的全局输入影响分析等三个目标。1.初步优化。使优化算法透明度义务止于初步优化的因素主要包括知识产权保护、恶意竞争风险、进出口秩序管理及技术上的可行性。现实中,对基于大型或超大型深度学习算法且以此为企业核心竞争力的算法应用而言,大幅度优化算法透明度的风险和成本都显而易见,如果企业所应用的算法被明确列入《技术目录》,选择初步优化就有更充分的理由。对于“基于数据分析的个性化信息推送服务技术”的算法而言,较高的算法透明度还有可能造成泄露个人信息的风险。如果基于优化算法可解释性已足以使相关推荐算法受到有效监管,并且用户在其权益面临重大不利影响时能够有效行使算法解释请求权,设置过高的优化算法透明度义务,就容易违反比例原则中的必要性原则,形成过度规制。2.适度优化。如果不存在上述重要原因的阻却效果,适度优化应当是大部分基于机器学习的算法推荐服务提供者所面对的一般要求。因为优化算法透明度主要是面向用户,适度优化的程度设置应当与用户权益保障的实际需求及用户群体的主要特点相匹配。在此种意义上,适度优化应当采取实用主义解释理论的立场,即“解释的优劣在于是否满足接受解释者的兴趣,它是心理学的和场景论的”。 29因此,适度优化算法透明度的方法可以选择可视化、交互界面、示例解释等“用户友好”而又能减轻知识产权侵权风险的进路。这些“用户友好”的算法解释进路需要对模型进行大幅度的精炼和概括,如可视化方法往往包含降维技术以达成人类可理解(阐释)的简单可视化结果。30大幅度的降维必然伴随着精度的丢失乃至预测准确度的下降,但只要足以使用户能够基本了解算法运行机理和作出大致准确的预判,即可通过相关参数和计算过程的不断调节,在兼顾保障用户权益及保护算法设计和企业竞争力等方面寻求最优平衡。3.充分优化。如果算法透明度对于用户重大权益保障(如重疾诊治及车辆导航方面的算法推荐)而言至关重要,算法推荐服务提供者应当承担充分优化之义务。所谓“充分”,就是不仅需要使用户知晓相关算法的基本原理和运行逻辑,还应当使用户能够较为准确地理解每一个输入元素(或每一项初始特征)对算法决策结果的影响,相当于可以生成针对任意输入元素或特定元素组合的量化影响分析报告。如果输入项为图像、声音、视频、行为(如操作习惯)等,算法推荐服务提供者应当构建人类能够理解的输入元素,并对此提供细颗粒度的量化影响分析或其他相当程度的算法解释。对算法透明度的充分优化并不必然意味着算法模型及其关键超参数被破解。在未来,随着算法设计的不断完善,对于大型和超大型算法,有望发现兼容充分的算法透明度和较强的技术秘密保护能力的方案。尽管两全其美的具体技术路线仍有待进一步的技术研究和实践检验,如果能够形成可靠的低成本实现方案,则立法也可要求承担更充分的优化义务。

四、优化算法可解释性及透明度义务的制度设计:迈向算法解释的“中国方案”

我国在算法治理的制度层面正日益重视可解释性及透明度义务。尽管此种要求尚未转化为正式的法律规范,但由此可以预见的是,未来我国立法中对算法可解释性及透明度将进一步提出强有力的要求。尽管算法可解释性及透明度的价值已经获得多国立法者的广泛共识,31国外立法已经出现相关重要规定(如欧盟《数字服务法》第24条及第30条关于在线广告透明度的要求),但各国对这一问题的理论研究与制度建设均处于探索前行状态,实际上缺乏成熟而普适的制度设计可资借鉴。我国算法推荐服务产业在世界范围内独具特色,正在形成的算法治理主体结构及制度架构更是独树一帜。由此,优化算法可解释性及透明度义务方面的制度设计,完全可以根据国内算法治理制度架构与现实需求,形成算法解释的“中国方案”。

(一)进一步界定可解释性与算法透明度之概念

由于业界对可解释性与算法透明度的认识尚较模糊,立法应进一步明确界定其概念内涵。对两个概念进行界定的具体形式,可以采取类似于《个人信息保护法》在附则中对“去识别性”及“匿名性”进行专门解释的方案,以单独的条或款分别说明算法可解释性与算法透明度的内涵。在此基础上,《算法推荐规定(征)》第12条的规定可以拆分为两款,对两种义务分别加以规定,基于不同技术原理,有针对性地充分发挥算法可解释性及算法透明度作为治理工具的不同作用。对概念的充分展开有赖于优化算法可解释性与算法透明度义务的具体内容。首先,相关义务的内容表述应当分别明确优化算法可解释性与算法透明度义务主要指向的对象,优化可解释性的义务履行对象主要指向监管方和评估方,优化透明度的义务履行对象主要指向用户。其次,优化义务的核心内容应得到体现。优化可解释性义务体现为增进规则化变换的精确性,而优化算法透明度义务体现为具备一定教育程度的普通用户对算法运行原理的了解程度。因此,在法律规范有关两种义务的具体表述中,优化可解释性义务可进一步明确,要求算法推荐服务提供者通过比较简洁的规则尽可能准确地预测算法运行结果;优化透明度义务也可作进一步阐释,要求尽可能使用户了解算法运行原理,尤其是了解影响算法推荐结果的因素及其重要性程度(或影响力程度)。最后,界定两个概念的技术细节可由技术标准承载。

(二)明确优化算法可解释性与算法透明度义务与算法解释请求权之关系

《算法推荐规定(征)》第15条第3款规定了用户的算法解释请求权及其他相关请求权,其中的“说明”可以被理解为算法解释。在算法推荐服务提供者负有优化算法可解释性与算法透明度义务的前提下,用户基于对其权益影响的主观判断即可发动算法解释请求权,这似乎对于算法推荐服务提供者可能产生相当大的负担;不过,由于“说明”的程度并未被限定,算法解释的形式和程度均较为灵活,又使得履行此种义务具有现实可行性。本款的算法解释义务属于面向单个用户、被动承担的义务,场景性和针对性更为明显,如果优化算法透明度义务的结果尚不足以澄清用户认为其权益受重大影响之疑惑,理论上就存在优化算法透明度义务与算法解释义务分置之必要性。然而,这意味着此种情形下提供算法解释的程度必然超过同一主体承担算法透明度义务的程度,鉴于后者本身就是复杂价值平衡的结果,进一步提升解释程度是否会引发重要商业秘密被破解等较大风险,值得斟酌。较为合理的一种折中方式是,针对特定用户的合理诉求,提供个性化的替代性解释方案,或者针对原有的算法透明度实现方案进行针对性的二次解释,即“对算法解释的解释”,以促使个别用户能够真正理解算法透明度报告等已有的解释。

(三)完善场景化、层次化的优化义务结构

如前所述,优化算法可解释性与算法透明度义务具有层次性,层次的具体确定取决于业务场景,而“场景”的实质是不同的法益保护需求。通常情况下,优化义务均应以适度优化为通常情形下的默认水平,初步优化与充分优化均作为特殊情况下的例外。未来立法可以列举若干与算法推荐相关的重要法益保护目标,例如在限制透明度一端包括涉及进出口限制的技术秘密、知识产权、算法安全、竞争秩序等,在支持透明度一端包括公民的平等权、青少年身心健康、关系公民生命权与健康权事项的知情权、公共安全风险等,通过判断是否涉及相关法益目标,具体决定优化义务层次的升降。

不仅如此,允许企业根据具体场景采取多元化手段实现算法可解释性及透明度亦为必要。部分算法解释方法实现简单但适用场景相当有限,部分算法解释方法实现复杂但泛化能力较强,此外部分算法解释方法可以广泛适用但会有所侧重,例如基于量化影响分析的算法透明度报告所保护的主要法益目标就是公平权(反歧视),32这就导致优化方案取决于具体场景的需求。另外,算法问责的建议大都聚焦于优化算法透明度和可解释性的前提,33尤其是算法透明度通常被认为是促进算法问责的机制,34不同问责需求下的算法解释方案也应有所区别。因此,逐一探寻各种典型场景下算法可解释性与透明度的实现路径是有必要的,法律规范可以规定多元化、开放性的基本取向,具体实现方式可以由国家标准和行业标准进行探索。

(四)通过技术标准中的多元化可选规则为优化提供指引

算法可解释性与透明度的具体实现包含一定技术含量,不宜全由法律规范径行规定,此时就需要技术标准发挥积极作用。现实中的技术标准可以起到复杂的利益平衡作用,进而在行政审判等法律实践活动中发挥规范效应。35法律规范可以为优化义务设定层次,优化的具体方案和状态可以由技术标准具体确定。既然优化可解释性义务体现为增进规则化变换的精确性,而增强算法透明度义务体现为具备一定教育程度的普通用户对算法运行原理的了解程度,这两方面都可以基于量化的标准检验或评估。不过,技术标准的制定过程可能是一个各方利益交织的博弈过程,某一项技术上升为标准可能对其他竞争者和消费者产生“锁入”(locked-in)风险。36鉴于算法可解释性与透明度实现路径的场景化、多元化需求,技术标准不宜统一规定具体实现路线,而可以通过类似于《人工智能算法金融应用评价规范》的设计,提供广泛覆盖现有技术路线的可选规则。对于开展算法推荐服务的部分中小企业,在算法解释与透明度的具体实现方案方面可能缺乏技术基础,相关标准还可以附上技术模板,指引企业实现安全、准确的算法解释;即便企业自身不能直接实现,Github等知识社区也可以根据相关技术标准提供第三方库,帮助企业实现优化需求。

结语

对算法推荐服务的监管需要我们深入考虑算法可解释性与透明度的技术基础及法理问题。自更抽象的层面观之,算法解释在算法治理中的基础性地位正日益受到学界与实务界的认可,优化算法可解释性与透明度义务很可能将是未来全球范围内算法治理的一致要求。深入算法解释的庞大“迷宫”,在当前和未来的算法治理中已不可避免。

尽管算法推荐服务提供者等市场主体面对此种义务可能顾虑重重,但相关法律规范的表述与阐释仍可为多方面法益保护目标的平衡提供空间。算法可解释性与算法透明度的实现路径多样,算法解释需求的场景化差异逐渐凸显,相关技术研究也正在日益活跃和深入。在此基础上,相关法律规范与技术标准越是充分体现算法治理的合比例性原则与价值平衡需求,企业就越有充分的机会以可承受的规制负担实现优化算法可解释性与透明度之目标。我们期待在综合平衡各种法益保护需求的基础上,更加公开、透明而可预测的算法推荐服务能够提供更积极的社会价值,带给用户和公众更充分的安全、知情、公平与自由。

来源:法律科学(西北政法大学学报)2022,40(01)

文献数据中心|DATA CENTER

© 2009-2024 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc