论文精粹|INFORMATION
郑戈:人工智能与法律的未来再思考
管理员 发布时间:2024-09-17 15:42  点击:209

【摘要】人工智能通常被想象为替代人类的技术,在法律领域,机器人法官、机器人律师往往引发人们的担忧,尤其是生成式人工智能的突破性发展造成了新一轮“机器取代人”焦虑。但人机共生和人机交互才是现在和未来的普遍现象。从人机交互入手,围绕“人在回路”原则来发展相关规则,才能对人工智能的风险和实际损害进行有效防控和救济,并充分利用技术来辅助和强化包括法律工作在内的人类工作,使人工智能服务于增益人类福祉的目的。

【关键字】人工智能;法律;人机交互;人在回路

人工智能已经成为我们所处时代的通用技术。所谓通用技术,是指其用途不止限于一个特定领域,而是可以被用到多个领域(包括人类尚未想到的领域)的技术。这种技术必定会影响和改变包括生产关系在内的社会关系,而社会关系的改变又会带来法律关系上的变化,这种变化中有些可以通过现有法律规则的解释和续造来吸纳,有些则需要立法层面的创新。同时,正如电力、通讯和先前的计算机技术一样,作为通用技术的人工智能也正在改变法律职业自身的工作形态。现有的讨论大多聚焦于“替代”,即人工智能会不会替代律师、公司法务和法官、检察官的工作。但现实和可预见的未来的普遍情况是“辅助”“赋能”和“强化”。无论是思考如何用法律规范人工智能技术的应用和发展(算法的法律),还是讨论如何用人工智能赋能法律的制定、解释和实施(法律的算法),[1]我们所要面对的一个基本事实都是数字化社会中普遍存在的人机交互现象。一方面,法律需要在人机交互场景中保护人的尊严和权利,防止各种小程序和电商平台过度采集和滥用个人信息,在算法操纵的线上世界支持人的主体性;另一方面,法律自身的运行场景也日益数字化和智能化,人机交互成为法律人日常工作的基本特征。智慧立法、智慧政务、智慧法院、智慧检务、智慧公安等概念中的“智慧”都不是指人类智慧,而是指人工智能。可以说,人机交互是当下乃至可预见的未来法律工作的主要形态;人工智能不会取代法律人,但会改变法律人的工作方式;机器不会替代人,但会使用机器的人将取代不会使用机器的人;利用技术强化自己的专业能力,对法律人而言十分重要。

本文以人机交互这一数字社会的普遍现象作为切入点,分析在算法的法律和法律的算法两个维度上如何通过适当的规则和制度设计来发展以人为本的人工智能(Human-cen-tered AI),从而使技术服务于人类的美善生活。

一、人工智能的概念和类型

从人工智能的概念入手是为了凸显出本文的基本线索,即人机交互和以人为本的人工智能设计原则。人工智能并没有统一的定义。软件工程师群体中流行一个笑话:“人工智能是指计算机现在还做不到的事情。如果它做到了,我们就不叫它人工智能,而叫计算机科学。”这个笑话其实透露出一个非常专业的判断:人工智能实际上就是我们过去一直称之为计算机科学的那个专业,它是该专业的前沿部分,旨在突破现有的边界,让计算机能够做之前做不到的事情。人工智能领域的一部影响力广泛的教材总结了四种定义人工智能的方式:像人一样思考的机器;像人一样行动的机器;理性思考的机器;理性行动的机器。[2]这种分类基本上能够概括目前常见的人工智能定义(见表1)。

表1人工智能的定义

人工智能这一概念最早出现于达特茅斯会议的企划书中。1955年8月,数学家约翰·麦卡锡、计算机与认知科学家马文·明斯基、IBM系统设计师纳萨尼尔·罗切斯特和信息论创始人克劳德·香农在一起商议次年举办一次暑期研讨班。研讨班的主旨在会议策划书中得到明确表述:“我们提议1956年暑期在新罕布什尔州汉诺威城的达特茅斯学院举办一场为期两月、十人参加的研讨会。本次研讨会将以这样一个猜想为基础而展开;学习的每一环节及智力的其他方面原则上都可以得到如此准确的描述,以至我们可以制造出一台机器对其进行模拟。我们将尝试发现如何让机器使用语言、提出抽象命题和概念、解决某些目前留给人类去解决的难题及实现自我改进。我们认为,只要一群经过精挑细选的科学家在一起工作一个夏天,我们在这些方面就可以取得一项或多项重大进展。”[3]在会议邀请函中,“人工智能”(Artificial Intelligence)这一概念正式诞生。由此可见,人工智能从一开始就是一群志同道合的科学家和工程师有意追求的事业,其目的是让机器能够学习并完成人类需要运用智能来完成的任务,是对传统编程模式的革新。人工智能的核心技术是机器学习,其商业应用被称为预测性分析(predictive analytics)。但这一事业并非一帆风顺,中间经历了数次“寒冬”,直到最近几年才开始得到小圈子之外的普罗大众的关注,并被认为是“第四次工业革命”的核心技术,具有彻底改变人类生存处境的潜质。

造成人工智能这座蛰伏已久的火山突然喷发的原因是经济形态和技术双重变革的合力。一方面,互联网平台经济成为当代经济的主流,谷歌、百度、亚马逊、阿里巴巴、脸书、腾讯已经取代通用电气等制造业巨头成为新时代的商业霸主,大量的交易在线上而不是线下完成。从可穿戴设备到家用电器都已智能化和联网化,使互联网升格为物联网,人们的线上和线下生活日渐融为一体,越来越多的人成为传感器测量和监督下的“量化自我”,每时每刻都生成着大量可供分析和产品化的数据,成为“泛在计算”(pervasivecomputing或ubiquitous computing)的迫踪和分析对象。[4]另一方面,英特尔创始人之一戈登·摩尔所提出的“集成电路上可容纳的晶体管数量每18~24个月就会翻倍”[5]这一定律不仅应验了,而且在计算机算力和存储能力方面都得到体现,使得海量数据得以低成本存储处理,为机器学习提供了丰富的资源。大数据是人工智能的燃料,应用编程界面(API)是人工智能的引擎,再加上商业应用的巨大获利机会,共同推动着人工智能的蓬勃发展。

与以往的“非智能”工具相比,人工智能技术的最大特点在于它的“学习”能力。学习在这里有着特殊的含义,用人工智能技术的理论奠基者之一、图灵奖和诺贝尔经济学奖得主司马贺的话来说:“学习是一个系统中的任何导致该系统适应环境的能力发生或大或小的永久改变的变化。”[6]人工智能学习的素材是人类的行为数据和文本、音视频等内容数据,通过学习,它能够分析和预测人类行为(分析式人工智能),也能够生成新的内容(生成式人工智能)。也就是说,它能够在与人类进行交互的过程中提升自己的能力,能够发现海量人类行为数据和内容数据中潜藏的范式和规律,并基于此来诱导人类行为,生成让人会误以为是人类创作的内容。这种“活的”或“智能化”的工具是人类以往没有使用过的,也使得人机交互变成了真正的“互动”。也正是因为它的这个特点,从人机交互的界面设计、过程治理和结果控制入手来规制人工智能技术的应用变得十分重要。遗憾的是,现有的涉及包括人工智能在内的数字科技的法律规则仍然是将人和物(工具)分开来进行考量,一部分规则从技术对人的影响入手,侧重保护人的权利(比如,隐私权和个人信息权益);另一部分强调人对技术的控制(平台责任中的专人负责规则),而缺乏对人机交互作为一种系统性存在的考量和规制。

人工智能技术及其商业应用涉及算力、算法和数据三大要素,分别对应于网络架构中的物理层、逻辑层(或软件层)和内容层。我国目前已经制定了针对每一要素的法律规范。比如,针对算力的《网络安全法》和《关键信息基础设施安全保护条例》,针对算法的《互联网信息服务深度合成管理规定》《互联网信息服务算法推荐管理规定》和正在起草的《生成式人工智能服务管理办法》,针对数据(内容)的《民法典》人格权编相关条款、《个人信息保护法》《数据安全法》《网络信息内容生态治理规定》等。其中只有《网络信息内容生态治理规定》超越了“人一物”二分的思维框架,从生态和架构的角度入手,对人机交互界面的设计提出了要求。比如,其第9条规定:“网络信息内容服务平台应当建立网络信息内容生态治理机制,制定本平台网络信息内容生态治理细则,健全用户注册、账号管理、信息发布审核、跟帖评论审核、版面页面生态管理、实时巡查、应急处置和网络谣言、黑色产业链信息处置等制度。”

对现有的规范性文件进行梳理,我们可以发现,从人工智能的概念到人工智能(机器学习算法)的类型都已经有了相对明确的法律界定(见表2)。

表2一人工智能的法律定义和分类

在上述分类中,深度合成技术其实可以并入生成式人工智能之中,是生成式人工智能之下的一种子类型,这一点在《互联网信息服务深度合成管理规定》第23条的列举中体现得十分明显,深度合成技术包括但不限于:(1)篇章生成、文本风格转换、问答对话等生成或者编辑文本内容的技术;(2)文本转语音、语音转换、语音属性编辑等生成或者编辑语音内容的技术;(3)音乐生成、场景声编辑等生成或者编辑非语音内容的技术;(4)人脸生成、人脸替换、人物属性编辑、人脸操控、姿态操控等生成或者编辑图像、视频内容中生物特征的技术;(5)图像生成、图像增强、图像修复等生成或者编辑图像、视频内容中非生物特征的技术;(6)三维重建、数字仿真等生成或者编辑数字人物、虚拟场景的技术。也就是说,早在ChatGPT等大型语言模型引爆生成式人工智能热潮之前,我国已经有了这个领域的法律规则。

二、回应人机交互问题的法律原则:人在回路

所谓人在回路,即英文中的human-in-the-loop(HIIL),是指在机器学习、自动驾驶、自动化武器及自动化决策等人工智能运用场景中要求人类的介人。也就是说,即使从技术上讲,机器已经可以自动化地完成所有的感知、决策和执行过程,从人本主义的角度出发,仍然需要人作为机器决策的把关者。尽管不一定明确使用“人在回路”这个术语,但要求有人来监管和介人人工智能的自动化决策却是体现在世界各国相关立法中的普遍原则,以至有学者提出了“人在回路权”这一概念,认为它是数字社会中人的基本权利之一。[7]法律中体现“人在回路”原则的规则设计被内化为工程设计中的基本原则,催生了“关注人类因素的工程设计”(Human Factors Engineering,HFE),以及研究特定工程设计之用户体验或对人类用户之影响的工效学(Ergonomics)。[8]

我国体现“人在回路”原则的法律规则依循的是传统的“让人来负责”的思路。比如,《网络安全法》第21条要求网络运营者确定网络安全负责人;《个人信息保护法》第52条要求处理个人信息达到国家网信部门规定数量的个人信息处理者指定个人信息保护负责人;《关键信息基础设施安全保护条例》第14条要求关键信息基础设施运营者设置专门安全管理机构,该机构的负责人和关键岗位人员要经过安全背景审查方可上岗;《网络信息内容生态治理规定》第9条要求网络信息内容服务平台设立网络信息内容生态治理负责人,配备与业务范围和服务规模相适应的专业人员,加强培训考核,提升从业人员素质;《互联网信息服务算法推荐管理规定》第7条要求算法推荐服务提供者落实算法安全主体责任,配备与算法推荐服务规模相适应的专业人员和技术支撑。在个人用户权益保护方面,“人在回路”原则体现为要求运营者、数据处理者或服务提供者在算法设计上要强化用户的主体意识和选择权,把人带进算法的闭环,让用户能够自主决策是否接受算法推荐或个性化内容,比如,《电子商务法》第18条规定,“电子商务经营者根据消费者的兴趣爱好、消费习惯等特征向其提供商品或者服务的搜索结果的,应当同时向该消费者提供不针对其个人特征的选项,尊重和平等保护消费者合法权益”;《个人信息保护法》第24条第2款规定,“通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷的拒绝方式”;《互联网信息服务算法推荐管理规定》第17条规定,“算法推荐服务提供者应当向用户提供不针对其个人特征的选项,或者向用户提供便捷的关闭算法推荐服务的选项。用户选择关闭算法推荐服务的,算法推荐服务提供者应当立即停止提供相关服务”。

这种人与算法二分、由人来控制算法或对算法负责的机制体现了传统的思维,可以解决出现损害结果后的追责问题,却无法起到在确保合理使用、激励技术和产业发展的同时预先防止风险的作用。换句话说,这种未触及人机交互的普遍形态而仅侧重于让人进入算法自动化决策的闭环实施干预的规则设计,未能考虑到人是否有能力进行干预、何时干预及如何干预这些操作层面的问题,只是把人安放进了算法的回路。人在其中可能扮演的角色包括:(1)纠正算法错误的角色,比如,发现和改正明显的错误、漏洞和偏差,确保算法安全运行并实现其功能,但这个角色在深度学习必然蕴含的“算法黑箱”情境中很难扮演,实际上处于虚置状态;(2)弹性角色,充当故障安全机制,即确保算法失灵时关闭系统或转入人工处理模式;(3)正当化角色,通过为决策过程提供人类因素来增强系统合法性,因为人们普遍相信只有人才有道德感和道德判断能力,事关是非对错、公平分配的人类事务不能交给冷冰冰的机器;(4)尊严保护角色,受决策影响(尤其是不利影响)的个人,如果知道该决策是由机器作出的,会感到受到了冒犯;(5)出现问题时承担责任的角色(又被戏称为背锅角色),因为惩罚机器没有意义;(6)代言人角色,作为人类利益的代言人,为自动化决策注入人性因素;(7)增强摩擦力的角色,高速运转的算法系统出现问题可能过了很久才被发现,而在此过程中更多的损害已经不可避免地造成,人的介入会降低算法运转的速度,从而使算法回到人类能够跟上的速度;(8)在自动化程度日益提高的时代为人类保留一些工作岗位的关照角色;(9)将系统与人类用户联系起来的接口角色。[9]

此种落实“人在回路”原则的制度设计是基于一种基本的假定,即人有人擅长的事情,机器有机器擅长的事情,将二者结合到一起就可以达致最佳状态。这一假定最早由美国工程心理学家保罗·菲茨提出,被简称为Maba-Maba假定。菲茨提出这一假定的语境是民用航空和交通控制领域的人机交互,他所列出的人和机器各自擅长的事情清单并不能直接适用于如今人和人工智能系统交互的场景,但这一列清单的思路却延续下来,成为许多人(包括立法者和政策制定者)思考相关问题的基本框架(见表3)。在理想情况下,人在回路系统中将实现两全其美:人类的灵活性可以缓解算法的硬脆性,算法的速度有助于迅速解决简单重复的问题(包括处理大量简单案件),同时,为速度较慢的人留出空间来权衡较难的问题(包括处理疑难案件),算法的逻辑一致性和人类的语境敏感性也能互相补充、折冲平衡。

表3菲茨清单[10]

如今,人工智能领域的专家们已经对人所擅长的事情和机器所擅长的事情有了全新的认识。比如,主流的机器学习颠覆了“人擅长归纳推理,机器擅长演绎推理”这一认识,从海量的无结构数据中找出模式或规律——这种归纳推理正是深度学习类算法最擅长的事情。该领域的权威专家写道:“算法预测不需要物理学。未知的结果,无论它是未来的还是未被观察到的,总是依循在过去观察到的现象中发现的模式。”[11]实际上,机器学习的核心机制就是:从大量数据中识别出模式或规律,然后,将这些规律迁移适用于其他场景。机器学习从本质上讲是一种计算统计技术,其功能是发现隐藏的规律,依据的是相关性而不是因果性。目前人工智能的主要商业应用形态,类似于艾萨克·阿西莫夫在《银河帝国》中所描绘的哈里·谢顿的心理史学。[12]在这部伟大的科幻小说中,心理史学被定义为数学的一个分支,专门处理人类群体对特定的社会与经济刺激所产生的反应。要使心理史学对人类行为模式的预测达到极高的准确度,作为研究对象的人类必须足够多,多到能够用统计方法来处理的程度,人数下限由“谢顿第一定理”决定。此外,人类群体中应当无人知晓自己本身是心理史学的分析样本,如此才能确保一切反应皆为真正随机。这就是目前各大平台企业都在使用的基于大数据的深度学习算法,旨在准确预测人的线上行为。至于说“机器只能短期存储少量信息,而人能长期记忆大量信息并在需要时适时调取记忆”,则早就被数据存储技术的发展给抛进历史垃圾箱了。

不过,对我们思考人机关系问题最有启发意义的还是汉斯·莫拉维克在1988年总结出的一种现象:“很明显,让计算机在解决智力测试问题或下棋时表现出成人水平相对容易,但很难或不可能让它们在感知和运动方面具备一岁儿童的技能。”[13]这个表述后来被概念化为“莫拉维克悖论”(Moravec's paradox):推理和复杂运算只需要非常少的算力,但身体技能和直觉却需要极大的算力。这似乎为如何设计人机交互界面指出了一条明路:让机器去做数据存储、信息搜索、模式识别和行为预测,而由人来做直觉判断和需要肢体技能的操作。但在总体性的数字化环境中,人类何时接管、如何接管,以及接管时能否发挥出人类的正常水平都是问题。实际上,人类的接管往往被设计为“被动接管”,即在机器以视觉、声音或触觉刺激的方式发出接管请求时方可接管。而在缺乏外部监督的情况下,商业引用场景中人工智能往往通过诱导性的用户界面设计消解人类接管的可能性。前一种情况的典型例子是自动驾驶汽车,后一种情况的典型例子是暗模式。下面分别加以简要讨论。

1.自动驾驶汽车场景中的“被动接管”和“拒绝接管”

2017年,德国议会通过了《道路交通法》的第八修正案,[14]允许配备驾驶员的高度自动化和完全自动化汽车上路。[15]其中的§1b款(标题为“车辆驾驶员在使用高度或全自动驾驶功能时的权利和义务”)规定:

(1)车辆驾驶员可以在按照§1a款使用高度或全自动驾驶功能驾驶车辆时不再专注于交通状况和车辆控制;在这样做时,他必须保持足够的警觉,以便可以随时履行第2款规定的义务。

(2)车辆驾驶员有义务在下述情况下立即重新控制车辆:

①如果高度或全自动系统请求他这样做,或

②如果他认识到或由于明显的情况必须认识到高度或全自动驾驶功能的预期用途之先决条件不再满足。

与这一注意义务分配模式相配套的责任规则是:如果是在§1b(1)项规定的情况下使用自动驾驶功能时发生了交通事故,责任在自动驾驶汽车一方的,由自动驾驶汽车制造商负责赔偿;如果是在§1b(2)项规定的情况下,驾驶员应当接管而未接管,或接管后发生事故,责任在自动驾驶汽车一方的,则由驾驶员承担责任。

可以看出,§1b(2)项实际上规定了两种人类接管情形:一是被动接管[16];二是主动接管。但主动接管在高度自动化和完全自动化驾驶汽车(L4以上级别自动驾驶汽车)的场景中实际上很难系统性地实现。试想,一位人类驾驶员或“技术监督”在开启了自动驾驶系统之后,按照法律所允许的行为方式,“不再专注于交通状况和车辆控制”,开始刷手机视频或开视频会议,其不仅难以做到主动接管,就连接到被动接管请求时恐怕都难以作出及时有效的反应。有鉴于此,德国交通部“自动与网联驾驶伦理委员会”《伦理原则报告》第17条又对自动驾驶汽车的被动接管技术设计提出了适应人类认知特性的高要求:

高度自动化汽车的软件和技术应当做到实际上避免在紧急情况下突然将控制权转交给人类司机的情况。为了确保有效、可靠和安全的人机沟通并避免让人承担过重的负担,系统应当更强地适应于人类交流行为并且不要求人类的高度适应能力。[17]

但这个要求在技术上是不可能做到的。如果机器能够预见到事故即将发生,并在给人类留下充分准备时间的情况下请求人类接管,那么这就不是真实世界的交通事故了。所有的事故都是突发的,无论人还是人工智能都无法提前很长时间预见到。如果人工智能系统可以预见交通事故,那么它就可以采取行动去避免事故,而不是请求人类接管。

显然是意识到了这个实践悖论,德国于2021年再次修改《道路交通法》和《强制保险法》,将其中涉及自动驾驶汽车的条款归并为《自动驾驶法》[18]时,在接管问题上确立了与伦理委员会提出的伦理原则截然相反的“拒绝接管”规则:

本法所称的最低风险状态是指这样一种状态,在其中,车辆

(3)独立将自己置于最低风险状态,如果继续行驶只有在违反交通法规的情况下才能进行;

(4)审查技术监督指定的操作并决定不予执行,而是独立将车辆置于最低风险状态,如果此种驾驶操作会危及交通参与者或无关人士。

从德国这一波三折的接管规则变化[19]可以看出,如何用法律来确定人机交互的具体条件和要求是一件异常复杂的事情。人类理解复杂的自适应系统的能力会随着系统自动化程度的提高而递减。如果遵从人类的价值选择(人的尊严和自主性)和法律逻辑,所设计出的规则可能就很难在高度自动化的实践场景中得到执行。反之,如果遵从技术逻辑,人在其中就变成了一个完全被动的存在。

2.暗模式治理

通过架构设计、应用编程界面(API)和用户界面设计(UI)而搭建起的电商平台、社交媒体平台和内容平台如今已成为人们日常生活中不可或缺的参与社会生活和经济生活的媒介。平台借助机器学习算法来获取、分析和使用用户数据,对用户进行标签化识别、画像和行为操纵。在平台用算法编制成的巨网面前,个人是透明的,而其所面对的界面是平台设计的结果,其背后的运作机理是普通用户甚至外部监管者都难以知其深浅的。从某种意义上说,数字社会总体上就是一个算力集中的黑箱社会。[20]而暗模式(Dark Pal-tems)是这个黑箱上向用户开放的窗口,其设计者故意迷惑用户,使用户难以表达他们的实际偏好,或操纵用户付出原本不必付出的额外金钱、时间或个人信息。他们通常利用认知偏差,促使在线消费者购买他们不想要的商品和服务,或者透露他们在充分知情的情况下本来不愿透露的个人信息。暗模式是用户体验(User Experience)设计界的常用伎俩。在数字生态中,一切关乎设计,而设计是平台主导的。设计师使用暗模式来隐藏、欺骗和诱使用户泄露。他们通过以非专家无法理解的方式提问来混淆用户,他们通过隐藏可以帮助用户保护其隐私的界面元素来混淆用户,他们需要注册和相关的披露才能访问功能,并将恶意行为隐藏在法律隐私政策的深渊中。通过将信息共享与应用内福利联系起来,暗模式也使用户披露个人信息显得“不可抗拒”。通过此类方式,设计者故意让用户难以实现他们的隐私偏好(见表4)。

表4常见暗模式类型及特征

暗模式存在于各种类型的平台和网络服务中,比如,在电商平台,它主要表现为不合理的差别定价,也就是我们经常听说的“大数据杀熟”。一人一价、价格不透明及比价困难是电商、预订类平台和网约车平台常见的特点,而这些平台是通过架构设计和用户界面设计来实现这种特点的。用一篇研究暗模式治理的经典论文中的话来说:“决策架构,而不是价格,驱动着消费者购买决策。”[21]我国的相关立法采取了行为界定的传统模式,禁止不合理差别定价的行为。比如,《个人信息保护法》第24条第1款规定:“个人信息处理者利用个人信息进行自动化决策,应当保证决策的透明度和结果公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。”而《浙江省电子商务条例》则对此作出了更为具体的规定:

第十四条 电子商务经营者不得利用大数据分析、算法等技术手段,对交易条件相同的消费者在交易价格等方面实行不合理差别待遇。

下列情形不认定为不合理差别待遇:

(一)根据消费者的实际需求,且符合正当的交易习惯和行业惯例,实行不同交易条件的;

(二)针对新用户在合理期限内开展优患活动的;

(三)基于公平、合理、非歧视规则实施随机性交易的;

(四)能够证明行为具有正当性的其他情形。

本条所称交易条件相同,是指消费者在交易安全、交易成本、信用状况、交易环节、交易方式、交易持续时间等方面不存在实质性差别。

不过,这种针对行为而不是架构而确立的法律规则无法解决普遍存在的暗模式问题,使得不以价格而以过度获取个人信息为表现形态的商业模式无法得到规制。从域外经验来看,美国加州和欧盟的相关规范值得参考。美国加州的《隐私权法》(CPRA)是世界上第一部对暗模式作出明确界定的法律,它将暗模式定义为“一种人为设计或操纵的用户界面,其实质效果是颠覆或损害用户自主性、决策或选择”,并规定受暗模式诱导而表达的同意不是真实的同意,合同自始无效。[22]即将于2024年3月开始实施的欧盟《数字服务法》[23]则对暗模式有更加详细的界定。

在线平台界面上的暗模式是有意或实际上严重扭曲或损害服务接受者作出自主且知情的选择或决定之能力的做法。这些做法可用于说服服务的接受者作出其本不想作出的行为或作出会给其带来不利结果的决定。因此,应禁止在线平台服务的提供者欺骗或怂恿服务的接受者,以及通过在线界面或其部分的结构、设计或功能来扭曲或损害服务接受者的自主权、决策或选择。这应包括但不限于剥削性的设计选择,以引导接受者采取有利于在线平台服务提供者但可能不符合接受者的利益的行动,或当要求服务的接受者作出决定时,以非中立的方式呈现选择。例如,通过视觉、听觉或其他组件设计更加突出某些选项。

在该规则制定过程中,相关立法讨论提到的暗模式类型主要包括:(1)过载。让用户面临眼花缭乱的请求、信息、选项或可能性,促使他们共享更多数据,或无意中允许违背数据主体期望的个人数据处理。(2)跳过。故意通过设计让用户忽略或无视对其自身数据保护至关重要的信息。(3)搅拌。通过界面设计来实现用户情绪调动或视觉助推,从而影响用户选择。(4)阻碍。指通过使操作难以或不可能实现来妨碍或阻止用户作出对自己有利而对平台不利的选择。(5)变化无常。界面的设计不一致且不清晰,使用户难以寻找到不同的数据保护控制工具,并了解处理的目的。(6)蒙在鼓里。界面的设计方式是隐藏信息或数据保护控制工具,或者让用户不确定他们的数据是如何处理的,以及他们有什么样的工具选项可以帮助自己保护隐私或个人信息。

通过以上讨论的自动驾驶汽车中的人类接管规则和暗模式治理两个例子,我们可以清楚地看到:将人和机器截然二分而分别关注人类行为和机器行为的思维方式无法帮助我们有效解决数字化生态中的人机交互问题。这种环境中的人已经是受机器分析、预测和引导(或误导)的人;而机器也不是被动的、中立的工具,是智能化的、内化了人类欲望和价值选择的机器。体现“人在回路”原则的法律规则,应当着力于总体的架构设计和用户界面设计,而不是随便扔个人进去充当“橡皮图章”或“背锅侠”。在这方面,正在讨论过程中的欧盟《人工智能法》草案可以为我们提供一定的参照。该草案序言指出,“人在回路”中的人必须“具备必要的能力、接受过必要的培训并享有必要的权力来充当这一角色”。该草案第14条特别要求“高风险”人工智能系统的开发者在设计和开发此种系统时为人类对其进行有效监管留下空间。“高风险”人工智能供应商还需要使用“适当的人机交互界面工具”来构建系统,它们必须使“人在回路”的人能够理解系统的运作机制并“能够适当地监控其运行”,这需要此种系统具有可解释性。开发者还以强化人类自主性的方式来设计系统,使“人在回路”中的自然人能够意识到人类服从机器的倾向并保持警醒。[24]正如欧盟在数字科技、数字服务和数字市场方面的其他立法一样,这部法律关注到了数字社会的基本特征,提出了有针对性的全新概念和规制框架。尽管其中的具体规则设计有待商榷,但其思维框架却无疑值得参考。

来源:本文转自《数字法治》2023年第3期(本文为文章摘录版,如需引用,参阅原文)

文献数据中心|DATA CENTER

© 2009-2024 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc