大数据、区块链、人工智能等新兴技术的加速应用,正在深刻改变着人类社会的运行模式。自动驾驶、医疗机器人、智能投顾、社交网络等事物的出现,使得人们在日常生活、经济交易、信息获取、社会参与等领域的活动以更加便捷和智能的方式展开。算法作为这些技术的核心要素,在推进行为决策机制变革和信任机制重塑的同时,也因公众在对自动驾驶事故、大数据杀熟、信息茧房、算法暴政等一系列议题的反思和批判过程中面临拷问:当我们把一切都交给算法时,它们究竟是否值得信任?随着算法社会的来临,人类正将决策权逐渐让渡给算法接管,
一、算法信任与可信算法的概念展开
从技术角度看,算法是为实现某个任务而构造的简单指令集,
(一)算法信任与算法可信度迷思
一般而言,自然人由于认知障碍、主观倾向、身心状态和外部干扰等原因,并不总能保证其决策的理性与正确。而算法依托确定的输入输出过程,能够实现相较于自然人更为客观、理性和有效的决策。同时,借助计算机程序运行和实现的算法能够更为严格地执行既定规则和逻辑,更为海量且快速地处理决策请求,从而实现决策的一致性、即时性和普遍性。看似机械冰冷的算法,能在很大程度上弥补和消解自然人决策中的非理性、主观性和局限性,节约决策成本并优化决策效率,成为维持社会运行乃至推动人类进步的革命性力量。基于此,算法被人们依赖甚至信仰,借助算法解决问题成为超越人类认知局限和执行能力的更优选择,由此形成了所谓的“算法信任”。
即便我们有理由相信算法能够按照预设的过程得以客观地执行,但由于其设计、部署和应用难以避免地会受到人类行为的影响,加上技术不完备的客观规律,算法自身的可信度会大打折扣,
算法信任是算法社会的基础,而信任必须建立在算法可信度之上。即便用户可能会因为主观上的盲目性而选择信任算法,但算法自身可信度的不足会客观上消解这种信任。因此,算法可信度才是确立和维系算法信任的根本。从前文分析看,由于算法可信度迷思的存在,当我们面对“算法是否值得信任”的问题时并不总是能够得到肯定的答案。然而,不论我们目前在多大程度上不信任算法,都不得不承认算法在当下与未来必将发挥着重要作用。任何因噎废食地抗拒算法社会的到来,都是不理智且不现实的。尽管算法并不总是值得被信任,但也不宜全盘否定算法的积极功能,无视那些具备可信度的算法为经济社会更加高效地运行提供的支撑。基于这个前提,我们可以得出一个初步结论:我们不能也不应拒绝算法,但是我们可以规训算法;我们需要算法,但我们真正需要的是可以信任的算法,即可信算法。
(二)可信算法及其内在要求
笔者所称的“可信算法”并非严格意义上的技术术语,而是侧重于算法“可信任”状态或特征的价值判断。由于话语体系的差异,有必要对相关概念进行区分以避免混淆或误解。在技术语境,“可信”源自作为一种信息安全技术的“可信计算”,即通过认证密钥、安全输入输出、内存屏蔽、封装存储、远程证明等核心技术规范实现身份验证和可靠运行,从而构建完整可信的系统。在这层意义上的可信算法,主要是指身份验证、安全保护等为内容和目标的特定算法类型,如动态加密算法、可信评价算法等。但在治理语境中,“可信算法”意在将那些对个体权益或社会福利存在现实或潜在威胁的算法予以排除,并将其限定为具备合法性和正当性且具有相当可信度的算法。此种定义并不关注算法的具体内容或目标,而是强调评估特定算法自身是否值得信任以及影响是否正面,与可信区块链、可信人工智能等概念异曲同工。随着技术专家对算法伦理的日益关注,对于“可信算法”概念的混乱认识也在趋于共识。
“信任”如何建立,或者说“可信”如何实现,是一个相对复杂的系统工程。算法自身的不完备以及在部署应用中导致的人与技术之间的疏离和对抗,往往会将算法推离人们的信任圈。正如哲学家Onora O’Neill所言,信任不是通过索取而得到,而是通过展示可信度来获取。
面对技术的不断进化和对人类生活的深度嵌入,“可信”成为了技术社群和政策部门的关注焦点。欧盟委员会设立的人工智能高级别专家组在2019年4月发布了《可信人工智能的伦理指南》
结合算法信任的形成机理和多利益相关方的主张,笔者认为,可信算法需要具备以下几方面的特点和要求:1.可理解性。算法要获得信任,必须以能够被理解为前提。可理解有两个层面的内涵:一方面是算法必须保持其透明度,使算法的基本逻辑、模型原理、决策流程等可为用户或公众所知悉,这有助于增进用户对算法决策的信任。
随着人类进入算法社会,算法的部署和应用将成为人类经济社会生活的常态。在此背景下,既要最大限度地发挥算法技术的积极价值,又要保证算法符合人类社会的“共同善”,
二、法律如何规制算法:可信控制的法律进路
算法的可信控制旨在通过相应的手段或方式对算法设计、部署和应用的全流程进行规范与调整,以保证算法的可理解性、可靠性和可控性。对于技术专家而言,算法的可信控制可以通过技术手段实现。例如,南加州大学研究人员研发的Deep Trust工具可以对AI算法生成的数据和预测的信息进行验证;日益成熟的“歧视感知数据挖掘”也能够识别偏离公平伦理的算法,通过技术进路“以算法控制算法”从而实现算法可信正在成为可能。
(一)技术与法律之间:算法的技术实质与法律实质
作为解决特定问题或者达成明确结果而采取的一系列步骤,
作为技术存在的算法进入法律场域,必然面临着对其法律实质的判断,即算法在法律的维度中究竟是什么,这决定了法律可以何种方式介入和规制算法。算法技术实质的拓展,也使得其法律实质呈现出不同的样态。法律作为调整社会关系的规范,关注的是现实存在的、具有明确的主体客体和具体权利义务的社会关系。如果仅从技术方案层面看,作为抽象决策逻辑的算法难以在法律上被评价,即便算法的执行确实可能产生相应的法律后果。正如法律可以控制基于某种思想而作出的行为,但无法控制思想本身。因此,这个层面上的算法规制只能将重点放在设计、部署和应用算法的相关主体上。
但随着算法技术实质的拓展以及算法对社会秩序的冲击,将算法本身作为法律规制的对象不仅成为理论上的共识,而且取得了相应的实践进展。目前有司法观点认为,算法属于“言论”或者“商业秘密”,
但是,算法的法律本质仅仅只是正当程序或规范吗?当算法作为一种工具或产品,就成为了法律关系中的客体。类似于机动车致人损害的场景,机动车的控制者(司机)以及机动车的所有者(车主)对侵权损害须承担连带责任。又类似于产品责任的场景,缺陷产品的销售者和生产者须对消费者承担连带责任。抛开其内部追偿关系不论,基于对特定客体的控制、所有、销售和生产等关联,都会形成特定的法律关系并获得相应的法律评价。因此,即便算法是法律关系中的客体,设计、部署和应用相应算法的主体也会因算法执行所带来的后果受到法律的肯定或否定的评价。算法本身就是算法关系中的重要一环,从而也当然是算法法律关系中的重要一环。而一旦算法具备了主体意识和能力,就需要承担其执行所带来的法律后果,而这并不是完全不可行的。易言之,算法在法律上并非仅有程序法意义上的表达,而且在实体法上也应有其一席之地。由是观之,除了明确算法的正当程序本质之外,还可以确认算法作为算法关系的一环,无论其是作为主体抑或是客体。鉴于算法的法律实质,我们得以穿透技术的迷雾,找到对其进行法律规制的路标。
(二)算法规制的基本逻辑:法律嵌入与法律调节
算法技术实质的拓展及其法律实质的厘清,为法律规制算法提供了更加明确的指向和更加多元的路径。尽管对于算法的法律规制面临诸多质疑观点,例如法律人不了解算法技术,那么法律就难以有效地规制算法。又如,算法是技术世界的抽象规则甚至就是“法律”,
至于法律如何规制算法,则需要将算法的技术本质与法律本质相桥接。不同层级与不同场景的算法在法律上的地位和评价存在着差异,对其实施法律规制的立场和路径也会有所区别。
法律嵌入算法,是指将法律的原则和规则嵌入算法的模型和逻辑,使算法在执行过程中符合法律的要求。由于算法是自动化决策所依据的基本规则,作为表达算法的代码实际上定义了技术世界的规则,并通过算法的执行对人的行为和人类社会产生影响,由此形成了“代码即法律”的论断。
法律调节算法关系,是指法律不再将算法作为直接的调整对象,而是围绕算法所创设或影响的社会关系作为关注的重点,通过调整算法相关主体的行为与责任、权利与义务而对算法实现间接控制。算法从设计到应用再到执行的整个流程涉及众多的主体,例如,算法设计者、算法应用者、用户、监管者以及公众等,这些主体基于算法这一连接点建立的社会关系可以被称作算法关系。算法的失控会造成算法关系的失衡,如算法黑箱、算法歧视等都会造成相关主体利益受损。如果说算法的高度专业、复杂和抽象导致了其难以受到法律的有效控制,那么投射在人类社会中的算法关系相对而言则更容易受到法律的规范。因此,当法律以明确且合理的权利义务框架、清晰的行为模式与法律后果对相关主体之间的关系进行有效规范,则其控制效果必然会及于算法本体。例如,算法设计者会更加审慎地设计算法,用户和公众则会通过法律赋予的权利对抗和约束算法。
(三)通过法律的可信控制
立足于防范算法风险的法律规制涉及的范围比较广,算法社会下的法律规制需求也非常迫切。算法共谋带来的垄断
算法“可信”是一种状态,即算法基于其可理解性、可靠性和可控性而能够获得人们的信任。从技术中立的角度看,算法作为客观技术产物其本身并不存在价值取向或信任问题,但算法设计和应用中难以避免地会受到相关主体的主观因素影响,恶意或过失可能导致算法的缺陷甚至失控,从而造成算法不可信。易言之,算法可信与否的根源在于算法自身是如何被设计和应用的。法律虽然并不能做到直接确认或宣示算法的可信,但法律可以通过规范和调整算法的设计、部署和应用的行为以及算法关系,形成针对算法相关主体的利益制衡机制和行为约束框架,从而实现算法的可信控制。
具体而言,通过法律的可信控制主要包括以下原则性内容:首先是技术规范控制,即以法律制度的形式明确算法在设计、部署和应用的整个生命周期中所应遵守的技术规范,以算法行为的合规性实现算法可信。例如,将算法的技术要求和伦理规范上升为具有强制性和普遍约束力的法律规范,确保算法在透明度、公平性、鲁棒性等方面符合法律预设的刚性标准。其次是权责协调控制,即在法律制度中合理分配算法相关主体的权利、义务与责任,通过“赋权”支撑用户和公众对算法的监督,通过问责强化对算法控制者的约束,以算法相关主体间的利益制衡实现算法可信。例如,通过构建合理程度的透明度规则,规定用户获得算法解释的权利、设计者和应用者的解释义务以及因未能合理解释而承担的法律责任,共同实现对于算法透明度的有效控制。再次是合作治理控制,即构建涵盖政府、行业组织、第三方机构在内的多利益相关方协同参与的治理框架,通过赋予相关方对算法进行监督的权力与职责,提高其参与算法治理的责任感和积极性并加强对算法的有效监督,从而实现算法的可信控制。
概言之,通过法律的可信控制是依托贯穿于算法的技术层、应用层和治理层的系统化制度安排,对算法本体和算法关系进行有效调整和规范,从而确保算法以可信任状态得以设计、部署、应用和执行的过程。作为算法治理必要环节的可信控制,以实现算法的可信状态为旨向,是有效防范算法风险的前提,也是算法规制的核心内容。通过法律的可信控制,也应当遵循算法规制的基本逻辑,即在算法本体方面强化法律嵌入,在算法关系方面完善法律调节,充分发挥法律在实现算法可信中的积极作用。
三、本体维度下的算法可信控制
算法自身的可信度是算法信任最根本的来源,也是算法可信控制最直接的场域。算法是否可信,以及多大程度上可信,往往取决于算法本体的质量。因此,从本体维度进行算法的可信控制,即以算法本体作为直接的规制对象,通过制度约束确保算法按照可信的标准和规范进行设计和应用,是实现算法可信的基础性环节。由于算法本体的技术属性,这一维度下算法的可信控制可以遵循法律嵌入的逻辑,将可信算法的具体要求转化为具有法律约束力的技术规范,从而完成算法的可信控制。
(一)完善透明度规则
“阳光是最好的杀虫剂,灯光是最好的警察。”布兰代斯大法官这一著名论断在透明度的拥趸中广为流传。这一论断不仅可以用来倡导证券市场上的信息披露,在算法的可信控制中同样适用。一方面,与行政公开能够增强政府公信力类似,算法的透明可以使用户了解算法的逻辑,从而获得用户的信任。
算法的透明度规则,核心在于要求算法控制者披露源代码或者披露算法从输入到输出的基本逻辑。
然而,透明度要求的落实面临着两个方面的挑战。一个挑战是与算法控制者私权的平衡。对于算法控制者而言,算法往往承载着其核心竞争力,也通常被主张为商业秘密而被获得保护。因此,在对算法课以透明度要求时也不得不考虑私权与公益的平衡问题。另一个挑战则是算法的透明并不意味着被理解,即算法的高度复杂性和专业性可能会导致算法的公开沦为形式,即便是算法完全公开,用户或公众甚至有些专业人士都可能被淹没在复杂的代码或冗杂的信息之中,从而无法真正理解算法是否存在不可信的因素。
鉴于此,在实现算法可信控制的过程中,透明度规则需要立足于使算法更易被理解的方式来构建。具体而言,算法控制者首先需要为公众获取代码或内在逻辑提供便利的渠道,使对该算法感兴趣的利益相关方能够方便地获取相关信息。其次,算法代码或算法逻辑的公开需要以容易被大众所理解的通俗表达方式予以解释,且这些解释必须是直接、简明且有效的。概言之,算法的透明度规则应当在适当尊重控制者利益的基础上,按照更加可理解的方式合理设定,使用户和公众能够摆脱机械的“鱼缸式”透明,并真正直接且有针对性地理解算法,将其作为算法在设计和应用时需要满足的合规要求,从而增进算法的可信度。
(二)推动算法伦理的法律化
由于算法在设计环节不可避免地受到人的影响,即便如何强调“技术中立”都无法否认算法本身具备着“经由设计的价值观”,
然而,算法的伦理要求仅限于道德上的倡议,由此而来的软性约束并不足以产生有效的控制力。尽管一旦算法违反伦理要求可能会导致舆论谴责或用户流失的后果,但主要依靠声誉机制的道德约束往往并不具备执行的刚性。因此,在算法的可信控制中,伦理要求虽然是衡量算法可信度的重要标准,但由于其道德约束的实质而导致可信控制效果不尽如人意。要解决道德约束的不足,需要借助具有强制约束力的法律来落实算法的伦理要求,实现伦理要求的法律化,即将算法伦理的具体要求嵌入法律制度,完成伦理规范的法律表达,从而将道德原则转化为法律义务,以实现更为有效的可信控制。尽管当前有些伦理要求已经嵌入法律制度,例如《一般数据保护条例》第13条至第15条要求数据控制者向数据主体提供自动化决策的逻辑并解释其影响,但现行有效法律需要更为充分和全面地将道德原则转化为法定义务。
算法伦理的法律化主要可以在两个层面得以实现:一方面是算法设计者负有按照伦理要求设计算法的法定义务;另一方面是算法的设计须遵守与伦理要求一致的法律规则。就前者而言,法律应当对算法设计者课以相应的信义义务,以约束其基于对伦理要求的充分注意来完成算法的设计过程,从而避免因设计中的故意或过失导致算法偏离伦理要求而落入不可信状态。就后者来看,法律应当设定明确且强制的技术规范,将伦理要求嵌入算法决策逻辑,以实现算法本身对于伦理要求的遵守。具体而言,可以通过强制性规范要求所有的算法均需将法律化的伦理要求作为设定条件写入主节点,偏离伦理要求的算法执行过程会因不满足触发条件而不能启动代理节点,从而以伦理要求作为衡量标准阻断不可信算法的执行,进而完成算法的可信控制。
(三)探索算法验证评估制度
相比于用户和公众的主观心态,算法是否确实可信往往取决于算法自身的客观状态,即是否可理解、可靠和可控。囿于自身专业能力和认知水平,一般用户并不能自主地完成可信算法的验证,但具有相应技术实力的利益相关方,譬如技术社群或政府部门,有能力对算法客观上的可信度进行验证和评估。然而,由于算法被作为商业秘密予以保护的通行实践,以及强制性算法验证评估制度尚付阙如,即便是在一定程度上需要保持透明,但算法仍然处于不受系统性验证评估的野蛮生长状态。这种局面显示了可信算法的实现只能依赖算法控制者的虚无承诺和用户的自我安慰,缺乏具有技术公信力和地位独立性的机构对算法是否可信进行确认。对算法进行验证评估以确认其可信度,是实现算法可信控制的重要抓手。建立针对算法可信度的验证评估制度,对于可信算法的甄别和应用殊为必要。
可信算法在技术上具备识别的可能性。从现有工程标准来看,IEEE的《推荐的软件可靠性最佳工程实践》(IEEE 1633-2008)以及国家标准化委员会发布的《系统与软件的可靠性》(GB/T29832-2013)等都可以对算法的可靠性进行验证。尽管随着算法的迭代以及深度学习算法的出现,导致现有工程标准不能完全应对,但是相关标准和规范正在推进之中,相应的测试模型和评估模型也会落地。国务院在发布的《新一代人工智能发展规划》中提出:“建立人工智能算法与平台安全性测试模型及评估模型,研发人工智能算法与平台安全性测评工具集。”
算法的验证评估制度的核心意旨在于针对算法设定一项接受审查的义务,即在算法投入应用前须经过有关机构按照可信度的相应标准进行验证和评估,以实现算法的可信控制。通过对算法的验证评估可以从源头上对算法进行筛查和监督,也能够为用户和公众使用算法提供可信验证的支撑和辅助。从具体实现路径上看,算法的验证评估制度需要解决以下几个问题:第一是谁来验证,是政府部门还是第三方专业机构?第二是验证评估机构是否有足够的能力查验算法的可信度?第三是验证评估结论是否构成算法可信的保证?第四是算法验证评估的程序启动是强制性还是依申请?
笔者认为,验证评估算法可信度的机构需要兼具技术能力与公信力,以保证其能够客观且有效地识别算法中的不可信因素。不论是政府部门通过组织专家委员会或者委托第三方机构进行验证评估,还是第三方机构按照法律授权独立进行验证评估,都能实现对算法的可信验证。由哪个主体承担算法验证评估的职责取决于法律制度如何安排。但是,由于技术能力和认知水平的局限,对于高度复杂尤其是具备深度学习能力的算法,不管是政府部门还是第三方机构都无法保证其能够完全精准地作出可信判断。因此,验证评估机构的结论在技术上只是具备高度盖然性的可信判断,而不能作为具备“背书”性质的可信保证。另外,随着算法的大量且广泛的应用,强制性要求所有算法都接受验证评估显然既不现实也不经济,因此可以对算法进行分类管理,与用户人身财产安全和公共利益紧密相关的算法应当强制接受可信验证与评估,而一般性的算法则可自主申请接受可信验证与评估。接受可信验证与评估并通过的算法能够获得较好的声誉,从而激励算法设计者和应用者积极申请,从而实现强制与激励并重的可信控制。
四、关系维度下的算法可信控制
算法部署和执行的过程会涉及包括算法控制者和用户等主体在内的众多利益相关方,这些主体之间形成的算法关系既反映着算法对社会关系的型塑,也会在一定程度上形成对算法本体的约束。具体而言,算法相关主体的权利义务配置、责任承担方案以及受监管程度都会影响算法能否以可信状态实现。可以说,算法本体的可信度奠定了算法信任的基础,而算法关系的有效调整可以促进算法以可信状态得以部署和执行,从而成为算法信任的保障。因此,从关系维度进行算法的可信控制,即不再以算法本体而是以算法关系作为规制对象,通过法律对算法相关主体行为的激励、约束和规范来调节和平衡算法关系,从而间接地将可信要求落实到算法设计、部署和执行的全过程。
(一)明确算法权利
算法权利配置是算法治理的重要内容,
首先,通过算法解释权的配置为用户确认算法可信赋能。算法解释权的核心在于保障算法相对人即用户就算法的功能、逻辑、影响等关键信息以透明且可理解的方式获得算法控制者解释的权利。
其次,通过脱离自动决策权的配置为用户拒绝不可信算法提供支持。源于《一般数据保护条例》第22条的脱离自动决策权意味着用户有权拒绝自动化决策算法,即在用户不愿意或者不信任算法的自动化决策时有权选择“脱离算法决策”。
再次,通过算法排他权的配置激励算法控制者配合算法的可信控制。现行专利法律的制度与实践将“智力活动的规则与方法”排除在专利权客体之外,这意味着以抽象化的决策流程和逻辑为本质的算法至少在当前并不能作为专利得到有效保护。为了保护商业上的核心竞争力,算法控制者只能选择将其作为商业秘密进行保护。现实中的保密需求与理论上的透明度要求之间形成的内在冲突导致了算法控制者往往怠于合作,透明度要求、验证评估以及算法解释都无法得到其全力的配合。算法控制者的消极配合难以真正实现有效的可信控制,而算法排他权也许能为争取算法控制者的合作提供一条可行路径。以算法公开或保存源代码为对价赋予算法控制者在一定期限内的以不得为竞争者所利用为内容的排他权,可以消解算法控制者在面对透明度等要求时的顾虑,实现在保护其商业利益基础上的算法公开,从而将算法关系从紧张的对抗调整为相容的合作,继而在算法控制者的配合下实现算法的可信控制。
(二)强化算法问责
相比于透明度要求和算法权利配置等通过事前预防的方式实现可信控制,算法问责具有典型的事后控制色彩。从不同角度进行理解,算法问责包括两方面的内涵:其一是指算法使用者或者控制者有义务报告并证明算法系统设计和决策应用的合理性,并有义务减轻算法可能带来的任何负面影响或者潜在危害,
目前美国纽约市、华盛顿州都出台了相应的算法问责法案,以对公共事业领域的算法决策设定相应的问责机制,即要求算法控制者报告算法合理性与避害措施的义务,并成立专业机构对算法进行审查。美国参议院目前正在讨论的《算法问责法案》将算法问责的适用范围从公共事业部门拓展到大型私人公司,并要求联邦贸易委员会制定评估“高度敏感性”算法的规则,明确对算法决策中可能存在的不当行为进行问责。这个层面的算法问责实际上是引入具备一定行政权力和专业能力的机构。例如,纽约市的自动化决策工作组以及华盛顿州的首席隐私官,作为相对独立且权威的第三方加入算法关系并对算法控制者形成制约,一旦算法偏离其预设的运行逻辑和执行原则,就会触发包括罚款在内的法律责任。通过问责机制的合理安排,算法控制者与用户之间失衡的关系将因问责主体的加入而得到调节,占据强势与主动地位的算法控制者会更加审慎地完成算法的设计、部署和应用,算法中的不可信因素也将得到控制。在具体的制度设计中,可以要求算法控制者将算法源代码、运行参量、算法逻辑等信息向法律授权的机构备案,供问责主体随时进行审计和检查,或者在算法运行出现问题后依据备案信息进行验证,若备案信息与实际情况不一致的,可以对算法控制者课以严厉处罚。
除了问责机制的设计之外,算法责任的分配也是算法问责的重要方面。民事、行政甚至刑事责任会对算法控制者形成一定的威慑,也会成为其作为理性经济人在作出行为决策时的重要考量因素。易言之,严格的法律责任会约束算法控制者的行为,避免因其故意或过失而出现的算法不可信。由于算法生命周期涉及算法设计者、算法应用者等诸多主体,不可信算法的部署及其造成的损害所产生的责任如何分配目前并未形成共识。责任形式和归责原则的不明确以及责任分配方案的模糊会减损算法责任的规制效果。事实上,在算法目前尚未真正发展到具备主体属性的情况下,存在应用风险的不可信算法可以纳入产品责任的范畴。例如,自动驾驶汽车致损可以按照产品责任的逻辑确立其责任形式和归责原则。
(三)拓展算法监管体系
目前,我国理论界探讨算法治理的主流话语体系还停留于算法权利与算法伦理,算法监管虽有提出但始终讳莫如深,其原因大抵是算法跨领域应用下监管权力的博弈以及算法技术复杂性下对监管能力的担忧。然而,尽管算法的验证评估与算法问责在一定程度上具有监管的色彩,具体而言,谁来监管以及如何监管仍有待于进一步明确。此外,仅仅明确算法相关主体的权利和义务却缺乏有效的监管执行机制,并不足以全面地实现可信控制。因此,以全局视角构建一个系统有效的监管体系对于实现算法的可信控制可以形成有力的保障,有必要在算法可信控制中进行合理的制度安排。
算法在经济社会生活各个领域的广泛应用,使得各监管部门基于行业监管职责都有对算法主张监管权力的需求。例如,金融监管部门在对智能投顾、量化交易时有必要审查算法的可信度,以确认依托算法实施的金融行为符合审慎监管和行为监管的要求。
但由于算法技术上的复杂性导致了监管部门在识别算法不可信因素时存在能力局限,因此除了由监管部门设立专家组或充实技术力量以外,可以引入多方主体按照合作治理的机制构建适应算法监管需求的监管体系。
此外,行业自律组织和技术社群也可以在算法的可信控制中发挥巨大作用。以行业协会、学会等为代表的社会团体或组织通常以学术交流和行业合作为基本定位,这些组织虽无法定的监管权力,但也能通过章程对其成员起到一定的监督和约束作用。并且,这些行业组织相比行政机关往往更具技术优势,且因身处技术一线而更能及时全面地了解算法技术发展动态。通过法律明确其自律监管地位并赋予一定的自律监管权限,能够充分动员这些自律组织对其成员和整个行业进行监管和约束,从而发挥可信控制的功能。事实上,这类行业组织的自律监管在金融行业、律师行业并不鲜见,将其移植到算法治理领域并无不可。而技术社群尽管松散,但在针对算法的技术交流中也可能发现算法中的不可信因素,不少“极客”以及“白帽黑客”往往也可以发现算法中存在的安全隐患或者歧视偏见,这些群体能够通过揭露或举报形成社会监管力量,
结语
随着算法社会的到来,人类诸多决策和行为开始逐渐让渡给算法。然而,算法并不总是可以被信任的,算法在设计、部署和应用中的失控所导致的算法偏见、算法暴政、算法缺陷等问题,可能会对人类所追求的公平、自由、安全等核心价值形成巨大冲击。诚然算法被寄予了人类对未来的期待,但我们真正需要的是可解释、可靠和可控的“可信算法”。如果算法不能得到有效规制,“科技向善”只是一厢情愿的臆想,不可信算法也可能会成为算法社会的“弗兰肯斯坦”。仅仅依赖算法控制者的技术伦理和道德自觉并不能真正确保算法可信,还需要借助法律制度对算法本体和算法关系的调整实现算法的可信控制。只有当算法被法律所规训,以可信算法的状态投入应用时,人们面对算法的恐惧与焦虑也许才能真正消解。
(为方便阅读,省略注释)
来源:《东方法学》 2021,(03),5-21