论文精粹|INFORMATION
马长山:智慧社会背景下的“第四代人权”及其保障
管理员 发布时间:2019-12-09 11:30  点击:1578


 内容提要:随着数字经济和智慧社会的深入发展,人权形态正在经历着深刻的数字化重塑,从而打破了既有的“三代”人权发展格局,开启了以“数字人权”为代表的“第四代人权”。它在发展动因上,源于信息革命;在内涵逻辑上,发生了根本转向;在价值内核上,实现了品质升级;在关系构架上,呈现关联义务的社会延展。这就需要确立全新的“数字人权”观,构建相应的人权保护机制,塑造尊重人权价值的“道德基础设施”,从而为“数字人权”提供有效的法治化保障。

   

   随着网络技术、信息技术和人工智能技术的加速融合发展,人类已经从工商业时代跨入了数字经济时代,开启了智慧社会,“其影响力足以与工业革命相媲美”,这必然会促发人权的发展与变革。事实表明,既有的“三代”人权发展格局被逐渐打破,“第四代人权”已经应运而生,如何加强其法治化保障已成为一个迫切而重要的时代课题。

   

一、智慧社会背景下的人权问题与挑战

   

   智慧社会的网络化、数字化、智能化发展,使得传统人权领域遭遇了很多尴尬。比如隐私权保护就面临着双重张力。一方面,“9·11”事件后“棱镜门”事件的效应凸显,各国监控技术不断强化、范围不断扩大。而在全球商业领域,无处不在的数据分析、数据画像和精准推送,已经扯开了传统隐秘空间上的面纱,制造了“无隐私的公众”;另一方面,公众的隐私保护诉求则出现了爆发性增长——“应当肯定存储于政府、商业组织、网络运营商等‘数据库’中的个人数据完全属于个人隐私范畴,公民对此享有使用知情权、编辑管理权、删除不当权等权限”。这似乎意味着,信息技术飞跃发展所带来的巨大进步和增益空间,已成为个人权利、社会权力与政府权力之间同步扩张、博弈增长的广阔“飞地”。再如,算法歧视使得社会歧视获得了全新的形式,在人脸识别、商业推送、大数据杀熟、甚至公共服务系统中,都曾出现过这类问题。这意味着,“在数据集中,杂乱无序的各种相关性暗含着隐秘的规律性,其中很可能就存在某些偏见。”

   

   在新兴人权问题上,一是黑箱“暗算”现象日益严重,“用户们无法看清其中的规则,无法提出不同意见,也不能参与决策过程,只能接受最终的结果”,那么,算法就“不仅仅是在预测,还有助于控制用户的行为”。这自然会形成黑箱的各种“暗算”、歧视、不公,不当牟利甚至欺诈便在所难免了,人权保护也自然面临着重大的、全面的威胁。二是无方向的监控扩张,无论是商业组织还是一些国家的政府,都经常以各种名义来对个人数据信息进行随时监控和检视。最近,欧洲经济和社会委员会就深刻指出:“监视贯穿整个社会,且没有方向性,在社会的各个层级,包括层级内部,监视无处不在。”三是数据掌控的严重不对称问题十分突出,“所有的数据都由我们自身产生,但所有权却并不归属于我们。”于是,一面是越来越透明的个人,普通公众各种信息被收集和了解的情况甚至超过了其本人;另一面则是越来越幽暗的数据掌控者,普通公众基本无从知道自己在多大程度、多少数量上的个人数据和信息已被他人掌控。这就意味着,当下日益加剧的巨大“信息垄断”和“信息鸿沟”,并不是一般性地加剧社会不平等和两极分化,而是明显危及到个人隐私、自由平等和人格尊严,严重地损害数字时代的机会公平、社会教育、劳动就业和社会保障等各项人权。为此,2014年联合国人权高专办在《电子时代下的隐私权》报告中就强调合法性、比例性、必要性和非歧视原则,要求保护个人信息数据不受国家和任何私主体的干预。可见,数字时代的人权威胁与保护面临着全新的时代挑战。

   

   首先,侵权的机制化。当前,人类生活越来越多地依赖数据、信息和算法,进入所谓“数据说话、算法为王”的时代。而一旦人脑决策过度依赖算法决策,甚至算法决策替代了人脑决策的话,人权遭遇侵犯以及人权保护的样态也将会发生重大改变。其实,以往的人脑决策也是一个“黑箱”,而且一直不能排除歧视、控制、不公平等价值偏好,但二者无疑存在着重大的差别。人脑“黑箱”基本都是个别性的、随机性的、不断变化的,而算法黑箱则是普遍性的、连续性的、稳定性的;人脑“黑箱”是一种难测的自主判断,算法黑箱则是一种可控的必然选择,“其核心是用可控的主观概率代替未知的客观概率,不同的主观概率则来源于对描述客观世界的不同算法的反向推演”;人脑“黑箱”是现实场景互动中的一个或几个即兴片段,而算法黑箱则是一种自动化系统,会形成自动化的歧视和侵权“决策”,甚至还可能通过自主学习获得升级延展。也就是说,算法黑箱是一个建模系统,是一种完整机制,它一旦存在算法歧视、信息控制、侵犯隐私等问题,就会成为连续性的常规动作,产生系统化和机制化的侵权后果,这是人脑“黑箱”所不具备的。因此,它对人权的侵蚀范围更广、程度更深,人权保护的难度也会更大,成为巨大的人权挑战。

   

   其次,侵权的“客观”化。技术进步带来的新奇、便捷、效率、安全等诸多社会福利无疑会让人欣喜;大数据挖掘和算法决策,又承诺比人脑决策更为迅速、更为客观、更为准确、不带任何偏见。但技术公司却往往在软件下载使用过程中不设菜单式选择而只有概括式同意,隐私政策和用户协议有意用晦涩繁琐冗长的表述来“迫使”用户作出无奈的勾选默认,以及通过隐藏界面甚至在软件升级中设置“后门”等方式,来表明当代神奇的科技是一种晦涩难懂的技术,让人们切身感受到人类世界已经被植入了计算机逻辑,因此“技术可以从本质上了解你,而你无须了解技术”,只要你输入了数据,就能得到相应的结果。可问题是,一旦打开黑箱,“设计者与用户面对的将是一堆可以得出某种答案的主观偏见与程序。而合上之后,它体现的就是客观性——一种无须满足任何更多的条件即可生成‘是’与‘否’的二元选项的机器”。这使得隐私侵犯、身份歧视、社会不公、自由限制等情况正在或隐或现却越来越多地发生在日常生活之中,并“以产品工程设计的表象去掩盖社会工程设计的实质”。可见,一些技术发展无形中对人权产生了严重威胁,而且它们隐藏在进步和福利的身后,披上了技术的客观性外衣,从而呈现出“客观”发展后果的形式,这就使人权保护任务变得更为艰巨。

   

   再次,侵权的耐受化。在智慧发展时代,人们很清楚,“大部分的系统都必须使用我们的信息或者将我们与它们的信息相结合,才会顺利运转”,力图没有任何牺牲,“啥都想要”似乎不现实;而规避隐私风险的代价又太高、费时费力,何况很多时候人们还期待在朋友圈中进行信息分享和再分享的过程中来获得价值实现;当然还有一个担心,就是过于严苛的权利保护,很可能阻碍科技创新和进步,而人们几乎无法拒绝技术进步和舒适生活的巨大诱惑,也几乎无人愿意退回到田园牧歌、与世隔绝的生活中去。这样,就好像有一种心照不宣的默契交换,“人们用失去隐私、丧失个人生活和失去批判精神的代价换取可预测性、安全性,以及人类寿命的延长”。另一方面,在当今信息科技加速发展的时代,绝大多数公众都是“技术盲”,只是被动地“接受”技术进步带来的舒适便捷;他们都是“透明”的数据提供者和被分析预测的对象,而对作为数据收集者、持有者、使用者的运营商和政府却知之甚少,“我们甚至不知道,他们是否知道我们的事”。由此看来,即便是普通百姓有心想维护自己的个人隐私、数据权利、信息自由或者反抗歧视,他们也没有足够的能力、方法和路径。因此,与普通民众相比,掌握“技术霸权”的技术公司、商业平台和政府部门拥有着巨大的优势,彼此之间具有明显的不对称性,这就使得人们具有超出以往的耐受心理,人们不得不为了享受进步福利而无奈放弃一些既有的价值和权益,于是,人权侵蚀现象蔓延、人权保护乏力的情况就日渐突出了。

   

   最后,侵权的覆盖化。在数字经济、智慧发展的主导形态下,社会生产、商业交易和日常生活也就越来越多地被置于数字建模、量化分析和算法决策的总体性框架之中。特别是如今平台经济所构造的是一种复合式、多环状的、“赢者通吃”的庞大商业生态圈,它所带来的是要么覆盖他人、要么被他人覆盖的“覆盖者之战”。由此引发的人权侵蚀问题也会随着“覆盖者之战”而扩展、蔓延和覆盖,比如信息隐私遭遇的挑战就“覆盖”了传统隐私权保护领域,算法歧视也“覆盖”了性别歧视、种族歧视、身份歧视等传统领域,数据鸿沟严重侵蚀公平机会,“覆盖”了社会教育和劳动就业等传统领域,不一而足,它使得“很多旧有的习惯将被颠覆,很多旧有的制度将面临挑战。”

   

二、当代人权变革与“第四代人权”的形成

   

   人们常说,在20世纪,谁控制了石油,谁就控制了全世界;而如今进入智慧社会,谁拥有了大数据和信息,谁就会成为新时代的主宰。事实上,“历史已经向我们表明重大的技术变迁会导致社会和经济的范式转换”,这必然会引起人权领域的深刻变革,并日渐打破前三代人权的属性和范围。为此,近年来国际社会作出了一些重要努力和探索。2011年联合国就宣布互联网接入权是一项基础性人权, 2016年联合国又宣布互联网相关的权利是人权的重要组成部分。2018年联合国社会发展研究机构(UNRISD) 在其《从颠覆到转型?将技术与人权联合起来促进可持续发展》的报告中,系统讨论了新技术对于传统三代人权的颠覆,以及如何在全球范围内面对技术驱动的变革来对人权概念和实践进行更新。有学者则进一步提出,基于第四次工业革命以及生物和数字技术的融合,“第四代人权”的提出时机已经成熟。同样,国内一些学者也对“第四代人权”进行了积极讨论,并形成了和谐权、美好生活权、数字人权等不同主张。然而,无论国际还是国内,目前都尚处于学理讨论阶段,还没有官方的结论或者制度上的肯定,也恰因如此,积极关注当下人权的深刻变革与转型升级,进而深入研究和诉求“第四代人权”,才更显重要和紧迫。

   

   (一)人权形态的数字化重塑

   

   智慧社会是一个高度联通、高度数字化、高度精准计算、高度透明和高度智能化的社会,它深刻改变着人的生存条件、生活环境、行为方式和价值观念,人权也日益受到了前所未有的改造和重塑。

   

   1.人的信息存在方式赋予了人权的数字属性

   

   众所周知,人权是指作为一个人而应该拥有的权利,它“显然以人或者人性作为其来源”,而这里的人,无疑是具有生物属性的、自然法意义上的“自然人”,并构成了人权的天然基础和基本前提。然而,随着网络化、数字化、智能化时代的到来,则使自然人的生活状态和生存方式发生了空前甚至颠覆性的变革。

   

   一是从自然人到“信息人”的转变。大数据和算法主导了经济和社会生活,“网上的个人信息全方位覆盖了你从摇篮到坟墓的全部私人生活,慢慢地积累所有数据,直至在计算机数据库中形成一个‘人’”。于是,智慧社会中的人们,就逐渐从工商业时代那种生活于单一现实空间、以物理方式存在的自然人,转变成生活于现实虚拟双重空间、以数字信息方式存在的“信息人”。

   

   二是数字人性的表达和建构。以往在公共空间和私人生活中固化的、封闭性的物理个体,如今更多地展现出破碎性、流动性、可视化的数字信息形态,这些构成性的数据逐渐变成一个信息化实体,它“正在拓展我们的边界,也在拓展存放自我身份的容器”。而且,“无处不在的数据、无处不在的道德数字化正在迅速改变我们的生活、我们的社会关系,甚至我们对自己人性的理解”。就是说,数据和信息已成为每个人不可分割的构成性要素,它描绘、表达和建构了人们的自然本性、社会角色和个性特征,呈现着人们的人格尊严和主体价值。

   

   三是“生物-信息”的双重面向。如果说人与自然分离是生物意义上第一次“人成之为人”的话,那么,“以网络化、数字化和智能化的方式变革工业生产方式和农业生产方式,并再一次以新的联合方式颠覆工业文明时代的制度安排、思想观念和思维方式等,重塑符合信息文明的概念范畴和政治、经济、文化、法律等社会体制”,这就导致了信息意义上第二次“人成之为人”。基此,现代性的理性人逐渐转化成可计算的“微粒人”——“这是一个决定性的转变,随着这个转变的发生,我们将会在这个数字和程序算法的世界里发展出一种新的人性形态”,因此,当代社会中的人也就日益赋有了“生物-信息”的双重面向。

   

   综上可见,人权观念已经不能再仅仅建立在传统自然人的基础上,它在很大程度上也要建立在数字化的“信息人”基础上;人权属性已经不再仅仅依赖于人的生物属性和物理空间,它在很大程度上也要依赖于人的信息属性和虚拟空间。至此,智慧社会中的人权便增赋了全新的数字化信息属性,实现了巨大拓展和深刻重塑。

   

   然而,数据信息既可能会增进人权、发展人权,也可能会威胁人权、侵蚀人权。技术公司、互联网企业、商业平台、政府部门等对个人信息的滥用确实已不再是简单的信息本身问题,而是对信息时代中主体身份构建、自由平等和自主性的严重侵蚀。一是它们通过数据画像,可以描绘一个人的外在形象和内在偏好,进而把人们归入算法所创造的数字范畴之中,也即“通过构建区分性范畴而运作,它把这些范畴和区分强加到大众身上。它赋予人们以性格特质,为他们创造了数字身份和名声”;二是它们通过数据信息收集,可以对一个人的日常活动进行适时追踪,进而获取他的行为取向和生活状况;三是它们通过相关的数据挖掘分析,使得一个人的家庭、亲属、朋友圈等社会关系变得可视化。这意味着,大量的数据信息不断地建构、同时也解构着日常生活中的每一个人,因此,“收集、梳理、再生、管控以及诸如此类的涉及人们的信息的活动已经等同于窃取、克隆、产生某个他人的个人身份认同”,从而“未经同意改变他或她作为一个信息化实体的本然而,数据信息既可能会增进人权、发展人权,也可能会威胁人权、侵蚀人权。技术公司、互联网企业、商业平台、政府部门等对个人信息的滥用确实已不再是简单的信息本身问题,而是对信息时代中主体身份构建、自由平等和自主性的严重侵蚀。一是它们通过数据画像,可以描绘一个人的外在形象和内在偏好,进而把人们归入算法所创造的数字范畴之中,也即“通过构建区分性范畴而运作,它把这些范畴和区分强加到大众身上。它赋予人们以性格特质,为他们创造了数字身份和名声”;二是它们通过数据信息收集,可以对一个人的日常活动进行适时追踪,进而获取他的行为取向和生活状况;三是它们通过相关的数据挖掘分析,使得一个人的家庭、亲属、朋友圈等社会关系变得可视化。这意味着,大量的数据信息不断地建构、同时也解构着日常生活中的每一个人,因此,“收集、梳理、再生、管控以及诸如此类的涉及人们的信息的活动已经等同于窃取、克隆、产生某个他人的个人身份认同”,从而“未经同意改变他或她作为一个信息化实体的本性”,改变他或她的个人自主性。由此看来,数据信息权“关系到个人的人格尊严和人身自由”,它无疑是一种重要的、基本的人权。

   

   2.权利发展的数据信息生态推动了人权的数字化演变

   

   当代的政治、文化和社会生活都逐渐形成一种数字化、信息化的总体性生态,以至于人们宣称,“除了上帝,任何人都必须用数据来说话”。为此,无论是传统权利还是新兴权利,都必然会在这种海量复杂的数据信息生态中发生着重大的变革。

   

   首先,权利内涵中融入了数据信息法益。信息技术的发展塑造了“你就是你的信息”的社会环境,为此,数据信息就成为人身、财产和社会关系的外溢呈现与权益表达,信息法益也随之就成为自由、平等和民主参与等权利的新内涵,使其获得了新形式。人们不难看到,虽然网络化、数字化、智能化的交融发展形成了多元化、扁平化、破碎化的社会发展态势,“互联网看似抹平了信息的鸿沟,但掌握网络话语权和流量的个人或机构,又重构了新形态的信息不平等”。它们将大量有关用户兴趣、行为和欲望的知识转移到少数人手中,于是,一方面,随着大数据技术的重要性越发凸显,“一个全新的不平等边界将被撕开个口子,将世界分割成掌握数据的一拨人和不掌握数据的另一拨人”,信息成为社会不平等、不公平的新型载体和作用机制;另一方面,它会形成严重的信息鸿沟、信息孤岛、信息不对称等问题,在政务信息日渐发达、智慧政府不断升级的时代条件下,这就大大地限制了公民的民主参与、自由表达和权利维护,信息也便成为公民的经济、政治和社会权利的重要客体。因此,亟需通过改革来建立适应信息时代要求的“数据新政”,从而为社会公众提供具有可行性的制度保证,要让“公共产品所需要的数据既易于获得,又能有效保障公民权利”。

   

   其次,数据信息要素促发了权利变异。进入数字时代以来,信息要素日益全面、深层地嵌入到现代性时空、社会关系、交往方式、生活样态和价值观念之中,很多的权利形态发生了裂变,权利逻辑被改写甚至被颠覆。就隐私权而言,通过搜集、挖掘、利用、分享个人信息的形式,把物理空间转换为信息空间,对公共领域和私人领域、此共同体与彼共同体、远程临场和本地临场进行了深刻重塑。也即“信息与通信技术反复地重新画出而不是消除信息隐私的界限。”同时,基于对个人信息的搜集、分析和利用,商家对用户的平均可预测程度可以达到93℅左右,这些清晰的数据画像和透明的身份拼图的背后,一方是无处不在、秘而不宣的数据掌控者,另一方则是全景透明、无知无觉的消费者;侵犯隐私也并不是意在“公共暴露”,而是重在悄悄地利用、无声地监视或者暗中实施歧视策略,有时则会表现为有针对性的宣传信息推送。这就不仅侵蚀了一个人自己的信息身份建构,还侵犯了人们不受打扰的权利。此外,网络信息的全球化发展,导致隐私的国际保护问题也日渐突出。这样,隐私权的范围、特性、形态及其保护方式都发生了重大变异,使得“隐私不但是一个个体问题,也可能是一个群组、一群伙伴、一个公司或者整个国家的问题,因为所有这些实体的本性完全由它们所是的信息决定并且构成”。

   

   同样,免于歧视的权利也是如此。近年来,警务预测、福利系统、商业营销、社交软件等领域的算法歧视,已经把种族、性别、身份、宗教、健康状况的等差对待转化成数据信息处理的自动化系统,“在算法的帮衬下,企业可以绕过这些反歧视约束,实现对特定人群的分组。通过自动化的开发与改进分组的过程,算法将特定种族、婚姻状况、年龄、性取向和宗教信仰的人划分到了一起”。由此一来,掌握算法的企业和政府就凭借隐蔽而强大的信息收集和精准计算能力,经由虚拟空间来实现远程临场,深入到每个人的具体生活场景之中,实施抽象的、广泛的自动化歧视,其后果带有普遍性、长期性和深远性,严重侵蚀着现代化以来反歧视的人权进步成果。实际上,无论是信息隐私还是算法歧视,都不是简单的个别现象,而是信息要素促发权利变异过程中的“类现象”,诸如智慧政府决策中的公民参与、网络表达自由、虚拟社会组织、平等公正等其他领域权利变异的情况也较为普遍。

   

   再次,数据信息演化为新兴权利。随着工商业社会向信息/智慧社会的转型升级,数据信息便成为新时代的“石油”。一方面,“大数据技术的繁荣和信息不对称的加重将令财富分配不公现象更为严重”;另一方面,基于数据和信息资源的重要经济价值与社会作用,又生成了前所未有的大量社会利益和新型社会关系,进而不断转换成现实生活中的新兴权利诉求和制度变革。作为其中的一个典型,“新的‘数据权’最令人激动。这是确保人民有权索取各式各样的数据,用于社会创新或者商业创新”。然而,多数学者认为,它并不是一个扁平的权利单元,而是一个宽广丰厚的权利束,包括知情同意权、数据采集权、数据修改权、数据可携权、数据被遗忘权(删除权)、数据管理权、数据支配权、数据使用权、数据收益权等等。不仅如此,网络化、信息化、智能化的融合发展,还衍生了虚拟财产、智能合约等新兴权利,并日渐壮大和成熟。其中的很多数据权利,先后被德国联邦宪法法院“人口普查案”(1983)、英国《数据保护法》(1984)、日本《个人信息保护法》(2003)、俄罗斯《个人数据保护法》(2006)、欧盟《通用数据保护条例》(GDPR,2018)、美国《开放政府数据法案》(2018)和《2018年加州消费者隐私法案》(CCPA)、澳大利亚《用户数据权利法案》(2019)等所制度化,爱沙尼亚、法国、芬兰、哥斯达黎加等国还先后通过法律宣布互联网是一项基本人权。我国《民法总则》也在第111条首次专门规定了个人信息权,并明确了个人信息保护的基本行为规范。国务院《改革开放40年中国人权事业的发展进步》白皮书则进一步强调,要严格依法保障通信自由和信息安全,推进政府信息公开,建立便捷高效的网络表达平台。这表明,新兴数据和信息权利正在理论与制度层面、国内与国际范围、私法与公法领域逐步获得确认和保护。所有这些,就形成了权利的信息化赋能、深度延展和数字化生态,大大丰富了生存权、发展权的时代内涵,从而推动了人权的信息化演变,有效拓展了人权的进步空间。

   

   3.信息时代的社会解组突破了既有人权保护逻辑

   

   随着数字时代的到来,新业态、新模式成为“信息环境、嵌入其中的信息能动者以及它们的互动的本体论中一种根本的、史无前例的转换”,国家/社会、公权力/私权利的二元结构和社会关系也由此发生了重大解组,从而使得人权保护逻辑受到了来自底层的突破。

   

   首先,双重权力生态日渐形成,人权保护面临全新挑战。当今的智慧发展日益深刻地颠覆着近代工业革命以来的工商业生产生活模式,从而进入了全新的数字经济、平台经济、分享经济时代。以技术公司、商业平台为代表的社会权力在瞬间崛起,淘宝、京东、当当、微信、滴滴、抖音等等都以“赢者通吃”之势,迅速成为一个个“商业帝国”。

   

   第一,二元结构被三元结构所取代。在当今数字时代,“信息是权力的中心”,新业态新模式下的社会权力成为一种体系化的力量。进言之,与以往工商业时代的垄断企业不同,它们不再局限于身为某个领域、某个行业的巨头,而是具有超强渗透、覆盖能力的全方位“霸主”;它们不再局限于经济目标上的经营管理,而是通过制定平台规则、处理平台纠纷、行使平台监管权等赋有了“准立法权”“准行政权”“准司法权”。这样,虽然它们本质上仍是一种社会商业力量,但却拥有庞大的权力资源和能量,突破了权利空间而迈向了权力领域;它们立足于社会又高于社会,不同于国家却与国家相勾连,成为社会治理中的一个重要主角。这就使得传统的政府/市场二元结构发生重大变革和解组,走向了政府—平台—商户(消费者)、公权力—社会权力—私权利的三元结构。

   

   第二,双重权力生态下的人权境遇。由于信息技术一面强化了公权力,另一方面又催生了私权力(社会权力),甚至国家通过立法“给平台加责任”的方式来授权平台进行资格审查和监管,从而形成一种公、私并存的双重权力生态。于是,它所带来的不只是财富分化,而是这种双重权力生态下有形或无形的掌控和规制。也即它们掌握着海量的个人信息和先进的数据分析技术,“基于这些资料,政府可以实现对特定个人的监控,而商业组织可以投放量身定做的广告,可以引导消费,甚至可以配合执法”。这就容易形成公权力与社会权力之间的某种“共谋”,甚至公共决策的认知和监管被社会权力所俘获,“这种俘获可能会搅乱人们对于市场动态所做出的批判性思考。而最终,这种想法还将反映在政府施政上面”。这就存在着社会权力转换为政治权力的风险,人权保护也便面临着双重威胁和更复杂的境遇。

   

   第三,权力制约、权利保障机制面临困境。近代以来的制度设计,是通过横向的分权(三权分立)和纵向的限权(减少干预)来确立权力制约和权利保障机制的。但如今三元结构和双重权力生态的生成,不仅让社会的私权利承受更大压力,并且它们也已不再运用传统手段,而更多地凭借先进技术向各领域进行深度的数字化浸润和算法管控。就是说,在技术“霸权”和算法决策面前,私权利处于更加弱势的地位,乃至陷入“数字鸿沟”、算法霸权和监控社会之中,其“自由主义剃刀”的作用日渐失效,近代以来的权力制约、权利保障机制面临着困境和危机,人权保护自然也就会遭遇严重的压力和挑战。

   

   其次,自主与控制、扩展与限缩的交换平衡,突破了政府/市场、干预/自由的边界。当下的信息化革命,似乎造就了狄更斯笔下那种最好的、同时也是最坏的时代。

   

   一是算法社会的自主与控制。事实表明,“自计算机产生起,技术改变的核心问题是权力的转移,”它使人类由工业社会转向了算法社会。本来,算法社会的主旨在于提高智能化和人的自主性,然而,“这些自动化系统已经由简单的行政管理工具变成了主要的‘决策者’”,“它收集了大量的个人数据,由此使得政府和私人公司采用新的监控、控制、歧视和操纵形式成为可能。可以将其称为‘大数据’问题”,“算法侵害”现象也就会不时地发生。这样,算法主导只是增加了高效、便捷和精准,并没有为人的自主性提供更多空间,相反,人们却常常在“算法黑箱”面前被动地接受自动化决策的结果,继而出现了某种无形的控制倾向。为此,有学者这样担忧到:“在未来一个由人工智能担任国内和国际经济指挥的时代,意味着我们所知的经济自由和资本主义的终结”。这样,就可能需要某种新兴数字社会主义,来“提升个人的自主性,反对中央集权。它是去中心化的极致表现”。同时,这也是抑制无形控制、强化新时代人权保护的重要保证。

   

   二是扩展与限缩的交换平衡。信息技术发展使人类的社会财富呈现几何级增长,生活方式也实现了智慧化的换代升级;但同时,它“向我们许诺的好处太过诱人,而人们失去的自由太多”。具言之,各种平台和技术应用在提供丰富、便捷、精准服务的同时,消费者不得不贡献自己的身份数据、关系数据、行为数据和言语数据;人们在使用各种软件、APP或进入平台时往往只能被迫勾选给定的概括性同意,而鲜有菜单选择的机会;人们享受各种网络化、数字化、智能化的商品或服务时,不得不面对各种“定制”的推送和算法决策的结果,等等。这样,自由、平等、权利的空间既获得了很大的扩展,也受到了很大的限缩。于是,人们喜忧参半,意识到“数字技术能够产生大量利益、极大地推动社会进步,同时它也为我们的基本人权带来了风险。监控和收集大量个人信息和元数据,以及使用新的分析技术处理这些数据,对我们的隐私权和免于歧视的权利有重大影响”。面对这一状况,有人认为,它“并不是一条通往人类被某些人、系统,甚至机器统治的危险道路,而是一种授权和允许的控制形式。等式的构成大致是这样的:更大的空间=更多的自由=更多的控制=更多的选择”;但也有人认为,“数字精英(digerati)所承诺的大多数东西并没有带来自由、平等和博爱”。更多的人则秉持一种与时俱进的交换平衡理念和精神,认为贡献数据、限缩权利,以便“使得牺牲它们来为人们的身份认同和私人生活提供额外的保护是值得的”。在这种情况下,人权的理念和价值就需要重塑,人权保护的方式也亟待革新。

   

   三是传统的政府/市场、干预/自由的边界被彻底打破。算法社会固然离不开市场,但这个市场无疑不再是作为国家对立面的市场,其运行也不再遵循基于传统工商业生产要素和生产方式的市场法则。人们看到,如今数据成为新的生产资料,算法成为新的生产力,互联网成为新的生产关系,此时,必须实现由传统社会向信息社会的价值转型,由单一物理空间向物理/电子(现实/虚拟)双重空间的思维转型。一方面,应对传统自由权利的克减趋势保持开放和包容;另一方面,又应高度关注基于数据信息和算法而产生的新的不平等、以及自由和人权所受到的侵犯,“围绕公民权利,我们已经在线下的世界取得了进展,因此我们不希望让大数据应用产生的自动化歧视和不公平来破坏这种进步”。但是,传统那种政府/市场、干预/自由的边界和逻辑,已经被双重空间的虚实同构以及数字信息的分布共享属性及力量所解构和重塑,其原有的价值准则和治理策略都也就难以再简单套用下去了。这就需要从信息社会自身的规律出发,发现、提炼和重构自由、平等、正义和人权保护的全新逻辑与边界,甚至“质疑和重铸关于自我、政治和法律的思想”,从而实现对人权的有效保护。

   

   最后,日渐数字化、信息化的人权,需要全新的保护方式。一方面,传统的人权保护方式日渐尴尬。人们越来越多地认识到,数据和信息是关系到人格尊严和人身自由的一项基本人权,人们的一举一动、一言一行都能在某个数据库中找到线索,因而,“在20世纪的所有发明中,它是对个人生活侵犯得最厉害的”。但是,对这些数据隐私、数据监控、算法歧视、信息鸿沟等方面的人权保护,却还没有找到有效的方法和路径,效果也不理想。伴随着网络化、数字化和智能化的指数级发展,信息化的人权形态会越来越多,而数字化、信息化的侵权方式也会有增无减,因此,“我们需要制定和论证新政策(法律、法规和关税)以规范各种新情况。有时,我们可以预见技术的使用将产生明显的不可取的后果,尽可能多的是,我们需要预见这些后果并制定政策,最大限度地减少新技术的有害影响”。另一方面,主权与人权的边界日渐模糊。商业营销、社交媒体、搜索引擎等等均超越物理空间和国家边界,侵犯隐私、新型歧视、以及跨国监控等问题日渐突出,人权的国际化保护就变得更为复杂和艰难。虽然欧盟GDPR设定了数据保护的“长臂管辖”,但它已经引起争议,如若用在人权与主权问题上则更难行得通。这样,确立新的人权保护逻辑,探索新的人权保护方式也就势在必行了。

   

   (二)智慧社会背景下的“第四代人权”

   

   当今信息革命带来的并不是现有生产方式、生活样态的简单拓展和延伸,而是新兴智慧社会对传统工商业社会的总体性替代,由此便产生了“第四代人权”——“数字人权”。

   

   概言之,它以双重空间的生产生活关系为社会基础、以人的数字信息面向和相关权益为表达形式,以智慧社会中人的全面发展为核心诉求,突破了前三代人权所受到的物理时空和生物属性的限制,实现自由平等权利、经济社会文化权利、生存发展权利的转型升级。这既包括前三代人权在智慧发展条件下的数字化呈现及其相应保护,也包括日渐涌现的各种新兴(新型)数据信息权利及其相应保护,其本质是在数字时代和智慧发展中作为人而应该享有的权利。

   

   首先,在发展动因上,源于信息革命。众所周知,法国法学家卡雷尔·瓦萨克的“三代人权”理论被多数人所接受。从他的代际分类来看,每一代人权产生的背后都是一场革命。“第一代人权”是18世纪欧洲人权运动所主张的公民政治权利,其背后是反封建、反专制的资产阶级革命;“第二代人权”是19世纪末20世纪初社会主义运动提出的经济、社会和文化权利,其背后是反对资本剥削、消灭贫富分化的社会主义革命;“第三代人权”是“二战”后反殖民化进程中出现的民族自决权和生存发展权,其背后是争取国家独立的民族革命。如今的智慧社会,其背后是一场信息革命,它带来的同样是人类一次解放和制度转型,只是它并非通过武装斗争的形式,而是以技术革命的方式来颠覆传统工商业时代的生产生活关系,塑造了空前的人类信息化生存状态和智慧化生活,因此,必然会引发迈向网络化、数字化、智能化发展的重大制度变革,造就新一代的人权形态。

   

   其次,在内涵逻辑上,发生了根本转向。前三代人权变革发展的内涵逻辑是:从个体人权到集体人权;从政治权利到经济社会文化权利,再到生存发展权利;从通过国家“无为而治”来加以保障的“消极权利”,到需要国家积极采取干预措施来予以实现的“积极权利”,再到人类生存条件的集体“连带关系权利”,等等。从中可以看出,其场景是“上帝”(大自然)所给定的物理空间,其基础是工商业时代的生产生活,因此,无论是政治参与、经济保障还是生存发展,基本都是在物理空间的逻辑框架内来展开、沿着人的生物属性来表达诉求的。而在当今智慧发展时代,人类凭借信息技术第一次走出了“上帝”划定的场域,开始了物理/电子(现实/虚拟)的双重空间生活,人类的物质生产、商业贸易和日常交往都需要在通过线上线下来交错进行;人们的角色身份、社会关系、交往行为、甚至言语交流,不再仅仅是千百年来惯常的生物性展开,而是越来越多以信息化、数字化方式来构造和呈现。这样,作为万灵之主的人,就史无前例地具有了现实和虚拟、生物和信息的双重属性,人权和各种权利也必然嵌入了太多的数据信息要素,它会改变、乃至决定这些权利的性质和方向。传统单一物理空间中人的价值尊严、自由平等、政治参与、经济保障、公平机会、劳动就业、生存条件等等,必然会面临网络化、数字化、智能化的巨大冲击和深刻重塑。

   

   人们不难看到,“我们或许会生活在一个没有隐私的环境里,或许会被一些超级权力在无形中控制,甚至很多人因为没有掌握未来生存的技能而找不到工作,财富可能会更加集中在少数人手里”。因此,当下人权的客观发展与变革诉求,并非是要求权利种类和数量的增长,也不是对传统工商业时代的人权拓展,而是数字时代人权的根本性转向。这就是“第四代人权”——“数字人权”,它以数据和信息为载体,展现着智慧社会中人的数字化生存样态和发展需求的基本权利,具体包括数据信息自主权、数据信息知情权、数据信息表达权、数据信息公平利用权、数据信息隐私权、数据信息财产权等等。其目标不再局限于以往的反压迫、反特权、反权力控制,而是旨在反技术霸权、反数据信息控制,努力消解和应对信息鸿沟、侵犯隐私、算法歧视、监控扩张、知情权障碍等诸多人权难题与挑战。

   

   再次,在价值内核上,实现了品质升级。作为人而应享有的权利,且每个人都应该受到合乎人权的对待——这不仅是人权的普适性和道义性所在,也是人权的价值内核。而每个阶段的人权变革与发展,都会形成对既有人权价值内核的超越和升级。第二代人权就超越了第一代人权那种形式上自由、平等观的局限,走向了更具实质意义的经济、社会、文化权利观。第三代人权又超越了第二代人权那种个体权利观,走向了关注生存与发展的集体权利观。如今的“第四代人权”也同样如此。

   

   第一,它大幅拓展了人的自主性。在人权理论看来,人格价值及社会、平等诸因素是人权的重要根据,而自主性、福利和自由则是“构成了最高层次的人权的一个三元组合”。每一代新的人权诞生,都大幅拓展、推进了这些最高层次人权的实现。在当今数字时代,人们的家庭身份、社会关系、生活行为等,都会自觉不自觉地在虚实同构中以数据和信息的方式呈现出来,进而演进为新时代的“数字人类”,迈进了跨越时空、万物互联、智能高效、自由便捷的智慧社会。这样,数据和信息就成为每个人参与和创造智慧生活的基本质料,是每个人在世界上进行独立完整、多元自主地进行人性构建与表达的要素、资源和媒介,因此,“任何人拥有了我们的信息也就拥有了我们自己的一部分,因而败坏了环境也就损害了我们对于世界的独特性与自主性”。而将“数字人权”视为“第四代人权”,其实质是智慧发展的“需求创立了人权”,旨在消除数据鸿沟、算法歧视、算法霸权、监控社会等人权威胁,大大提升数字时代的人的自主性,强化对“数字人类”的人权保护,进而“用人性的洞察设计更人性的社会”。

   

   其次,它实现了新时代的人权价值加持。在这场信息革命中,“人们在将自然逻辑输入机器的同时, 也把技术逻辑带到了生命之中”。国家、社会和百姓的衣食住行都在日益数字化、智能化,它突破了物理空间的利益逻辑和权利逻辑(包括侵权和维权方式),形成了虚实交融、场景互动的数据信息逻辑,它直接“关系到个人的人格尊严和人身自由”。因此,将“数字人权”提升为“第四代人权”,就与时俱进地赋予了数据信息对人的价值和尊严这一人权核心价值的构造意义和维护效能,从而对人权进行数字时代的价值加持,否则,人权将会受到严重侵蚀,甚至失去社会根基。

   

   第二,它能实现了人权的品质升级。我们说,每一次人权的重大发展,都带有明显的解放性质,其终极目标是趋向于马克思所展望的“人的全面发展”。但自由平等权—经济社会文化权—生存发展权的三代发展变革,都是在物理空间和生物维度上的发展演进,这也限定了其作为道德权利、普遍权利、反抗权利的属性和场域。如今数字时代的到来,人在生物属性之外获得了数据信息属性,在物理(现实)空间之外拓展出了电子(虚拟)空间,使得前三代人权的理论逻辑和内涵价值已经无法涵盖这些信息革命的后果,因此,走向“第四代人权”就成为一种必然。而且,与前三代人权相比,它面对的是更加复杂多变、挑战与机遇并存的技术革命,需要抑制网络化、数字化和智能化发展的负面风险,最大限度地将其进步成果转换为人的自由发展能力,打破“上帝”给人类划定的物理时空和人自身的生物界限,从而更接近人的尊严和价值,也开辟了以前无法想象的人性空间,并通过“人权建构了人”。可见,“第四代人权”并不是对前三代人权的拓展,而是信息革命和智慧社会带来的人权品质升级。

   

   最后,在关系构架上,呈现关联义务的社会延展。自近代人权理论诞生以来,它一直是在以公民与国家为主线的关系构架中展开的,但如今出现了前述从二元结构向三元结构的转型和双重权力生态,以往那种公民与国家为主线的关系构架就暴露出更多的局限,技术公司、商业平台等主体的关联义务延展就势在必行。

   

   一是社会权力成为新的人权威胁力量。数字经济新业态的一个突出特点,就是去中心化与再中心化并存,呈现分散的大众、集中的平台、监控的社会之势,特别是信息鸿沟、算法歧视、算法黑箱等问题不断出现。基此,在个人隐私、自由平等、社会公平、劳动就业等方面给人权带来威胁的,已不仅仅是国家(政府),很多时候则是行使“准立法权”“准行政权”“准司法权”的技术公司和商业平台,仅靠国家(政府)义务不足以保护人权,需要这些社会权力者承担起必要的自律责任和避免侵犯人权的义务。

   

   二是侵犯人权的方式更加技术化。随着人类生产生活和日常交往的日益数字化、信息化,人权遭遇侵犯的方式和途径也更加技术化、自动化。虽然数据收集挖掘、建模算法、软件嵌入等更多地呈现着技术的“中立性”“客观性”和“进步性”,但在这种“客观性”的外衣之下,往往隐蔽着自由平等、人格尊严、个人隐私、自主选择、教育就业等人权遭遇侵犯的事实。此时,无论是政府还是公众,对这些先进技术都是“门外汉”,这就加大了国家对人权保护的成本和难度,传统的国家(政府)人权保护义务难以对其有效应对,亟需对技术优势地位者课以不得侵犯人权的最低限度义务。

   

   三是信息全球化的无缝链接已超出主权疆域。苹果、亚马逊、谷歌、阿里巴巴、百度、京东等等超级互联网公司和商业平台,都具有跨国的全球业务,而且网络化、数字化、智能化本身创造并活跃于无边无垠的虚拟世界,远远超出了一国主权的涵摄范围和力量所及。这样,它们的所带来的人权问题,就会给地理上的主权国家造成一定的规制困境。因此,就需要针对这些社会权力主体设定一些必要的国际性的人权保护义务。总之,在关联义务的社会延展过程中,国家(政府)不仅自身要积极作为来履行保护义务,还需要监督和规制社会权力主体,尽最大努力抑制侵犯人权的现象的发生,使智慧社会沿着更加符合人性的方向行进,从而建立良法善治的法治秩序。

   

三、“第四代人权”的法治化保障

   

   历史表明,在每一代人权生成和新旧交替的过程中,都会面临复杂曲折的利益冲突和制度重构。当今“第四代人权”同样会遭遇诸多的难题和挑战,亟需加强从理念、机制到规制策略的探索和构架,进而为“第四代人权”提供法治化保障。

   

   (一)确立“数字人权”理念

   

   数字经济有两个质的飞跃:一是传统生产要素(如土地、劳动力、资本、技术等)及其相应的基础设施越来越多通过数字化来展现和发挥作用;二是出现了全新的生产要素,那就是时刻都在生成的生产生活数据,它已成为驱动经济增长的核心生产要素和新型基础设施,并加速推进了信息数字化——业务数字化——数字转型的发展进程,从而引发“从机械思维到数据思维的转变”。为此,适应数字时代的客观发展要求,推动从物理世界人权观到数字世界人权观的转型升级,就显得重要而紧迫。

   

   首先,立足数字化加持。我们知道,第一代人权观承载着启蒙价值,第二代人权观反映了社会主义制度诉求,第三代人权观展现着民族解放和自决精神,它们在一定意义上反映了从个人主义人权观——个人/集体并重主义人权观——人本主义人权观的演进逻辑。其人权内容主要是物理世界中的公共参与、生活水准和公平发展,涉及的是物理意义上的人、财、物及行为,几乎没有数据和信息的概念。而如今数字时代的到来,从个人隐私到公共生活,从衣食住行到公共安全,一切都在信息化、数字化的加速进程之中,纯粹的线下活动越来越少,“‘虚拟世界’和‘现实世界’之间的分野正在失去以往的意义”,“每个人的数字生活将更加细节化”。这样,包括生命财产、政治参与、劳动就业、社会保障、文化教育等在内的各项人权,要么都受到了信息化、数字化的解构和重构(如隐私与人格、智慧政务与公共参与、虚拟财产保护、网络言论自由等),要么遇到了全新的挑战(如数字鸿沟、算法歧视、算法霸权、监控社会等)。此时,数据和信息不仅成为人们数字化生活所不可或缺的珍贵资源,也成为新时代人权日益重要的新型载体和价值表达。无论是人权属性、人权要素、人权内容、还是人权形态,都正在从前三代人权的物理加持方式,转向当下人权的数字加持方式,进而构成了“第四代人权”的发展动力和基础。此时,只有从智慧社会的客观需要来增进人权的数字加持,才能更有效地保护“数字人权”。

   

   其次,认同数字化人格。在人权理论上,“并非任何促进人类的善或人类繁盛的东西都可以算作人权的对象,唯有人的资格所需要的那些东西才可以成为人权的对象”。在当今数字时代,每天都在产生的海量信息,既是生产生活的运行轨迹和交往图式,也是人们身份数据、行为数据、关系数据和言语数据的具象展示和情景再现,从而塑造着人们的数字属性、数字面向和数字生态,构成了人的资格所需要的一种核心资源。首先,消费者若不具备基本的数字素养,将无法正确地运用信息和数字化产品和服务,成为数字时代的“文盲”(与听、说、读、写的基本能力等同),故而,数字素养不仅是数字经济发展的关键要素和重要基础之一,也是人格所需的必备要素,并被联合国认为是数字时代的基本人权。其次,无论是公共领域还是私人领域,都已突破了传统的物理空间意义和范围,不断地向虚拟空间进行拓展和延伸,而且,人们的行为和社会关系也在虚实同构中发生了深刻的变革,“对于一个网站或数据库,或者,在普通情形下对数字监视器非法的或未授权的侵入,被认为是侵入他人的私人领域或空间”,因此,数据和信息承载着重要的主体价值和人格权益。再次,日常生活领域中的自动化算法决策会越来越多地取代人脑决策,算法黑箱、算法霸权、算法歧视等问题也会随之凸显并普遍化,为此,“工业时代为契约自由和财产权而斗争,算法时代则为了数据的收集、传送、使用和分析而斗争”。此时的核心问题不再是契约自由和财产权,而是数字化人格,包括“保护个人的电子信息的知情权、个人的电子信息不受非法泄露、篡改、毁损等权利,都是个人人格权的重要内容”。由上可见,认同数字化人格是保护“数字人权”的必然选择。

   

   其三,重塑人权价值观。近代人权观念的生成及其制度实践,一直是以启蒙精神为价值来源和支撑的,其核心是基于人之尊严的普世道义。因此,前三代人权在政治经济、社会文化、生存发展等领域得到了积极的“目标性”保护,但面对数字时代的人权挑战,这种传统保护模式就难以为继了。因为启蒙时期的价值理想是现代性的产物,反映着工商业社会的生产生活规律;而如今人类迈进了智慧社会,人格尊严、自由平等、公平正义、劳动就业、生存发展等项人权难以再恪守启蒙价值。例如,英国新实施的《数据保护法案》规定,任何公民都有权禁止企业对其任何个人信息进行利用。“不过,如果有公民打算行使此项权力的话,那么在贷款、办信用卡甚或找工作时,他都可能会摊上一大堆麻烦。”同样,欧盟GDPR旨在捍卫启蒙价值,但无疑会对信息技术发展和数字经济带来巨大阻力。因此,我们要充分认识到,颠覆性的技术革命既可能控制我们的生活,也可能服务我们的生活,而关键是问题是,在这个数字化世界中,“针对哪些信息流是可以被允许的或被阻止的,哪些是需要鼓励或打压的,都需要在制度、激励、法律、技术或者规范方面进行清晰的设计和规划”,从而按照数字社会的生产生活规律来重塑人权价值观,确认和保护“数字人权”。

   

   (二)构建“第四代人权”的保护机制

   

   “第四代人权”应走出前三代人权的“目标性”设定与价值期待,立足智慧社会发展的客观现实和人性诉求来加以保护。

   

   首先,推进数据信息自主权的制度化。基于1983年德国人口普查案的“信息自决权”理念,对数据和信息权利、“数字人权”保护无疑具有重大意义。不过,它针对的乃是国家强制信息收集行为,属于国家在何种程度上有权限制私人行为自由的问题,“其意涵也因此被塑造为个人数据免受国家无限度收集、储存、使用和传递;而其功能也在于防堵国家在信息化时代下,藉由数据调取和数据整合技术,产出部分或是几乎完整的‘个人轮廓’,并由此对公民的私人空间和自决能力予以削减”。然而,它并不是一般性的、排他性的绝对权利,而是需要受比例原则限制并与其他权利相平衡。事实上,“信息自决权这一法律概念拖延了数字化技术的应用进程,影响并限制了使用舒适性。但同时,我们又不愿意放弃对信息自决权的执着”。因此,我们应把“信息自决权”修正为数据信息自主权并推进其制度化,这样才能更好地维护信息权益和“数字人权”。

   

   其次,探索场景化的权益平衡机制。信息技术和智慧发展“为我们创造了一个‘共同的世界’(Common World),一个我们无论如何都只能共同分享的世界”。它所带来的既是数字经济,也是分享经济;它既促进了人权的增长和进步,也带来人权的风险和威胁。因此,这就需要探索平衡共享性的保护机制。具言之,由于数据和信息既是基于每个个人或单位的活动所产生的,又是数字经济时代用以维持正常运转所共生共存的资源,因而,它们既具有私人属性,也具有公共属性。这样,“数字人权”不仅要遵从数据信息的双重属性和信息自主权的边界,也要纳入“共建共治共享”的法治秩序格局之中。也即人们“要享受这些便利就需要牺牲一部分个人权利,包括隐私权,另一方面也要直面大数据控制本身带来的新的社会不平等、数据管控者与个人之间的信息不对称和权力不平等、个人权利在大数据时代备受挤压等伦理和法律问题,并尝试在两者之间找到折衷和平衡之道”。由此看见,“数字人权”的保护,已不再是前三代人权的“目标性”追求,而是更务实的、置于具体场景之中的权益平衡。因此,这就需要在数据和信息的公共性和私人性之间,政府部门、商业平台、技术公司和消费者之间,以及公法保护和私法保护之间,形成一种多元平衡、互动共享的数字人权保护机制,既要消解算法歧视、社会监控和数据鸿沟等人权威胁,倡导和保障智慧社会的“数字人权”;也要确保数据信息的共享流通和数字经济的正常运转,从而为“第四代人权”提供可靠的法治化保障。

   

   最后,探索过程—结果的规制策略。由于现代性法律体系立基于罗马法的规则逻辑,面对的是物理空间的人身关系、财产关系和国家/社会关系,因此,它注重行为的性质和后果,常常采取预防制或者追惩制的方式,来实现权利保护和塑造秩序。随着智慧社会中现实世界与虚拟世界、物理世界与数字世界的边界消失,使得“制度性反应缺失,行为成本和后果更加难以计算”。同时,也在很大程度上给制度带来了超负荷,“许多以前我们曾经依赖的东西,正在数字化时代支离破碎”。此时,单一结果规制方式下的权利保护和规范秩序必然会面临重大挑战。这就需要从单一的物理空间逻辑转向物理/电子的双重空间逻辑,从行为结果规制转向过程规制,注重代码规制的“法律”作用。也即“法律规则是传统立法框架下的规定的行为规则,它是一种‘外在的’规则,这些规则会在足够高的风险收益诱使下被打破,但是打破规则并不被发现的情况下也要为后果负责,这是一种事后惩罚机制;技术规则是一种‘内在的’规则,如果不遵守技术规则,程序将返回一个错误值并停止运行,并且代码总是严格地按照规则运行,这是一种事中执行机制。这两项规则同等重要,相互补充,缺一不可。”目前的智慧政务、智慧检务、智慧司法、智慧城市等建设,都体现了把技术规则上升为法律的“技术法律化”、以及把法律转化成代码并由算法自动执行的“法律技术化”进程。可以说,“大到整个互联网,小到一个网络空间,代码都嵌入了价值理念。它实现或阻止某种控制”。在这一时代背景下,“数字人权”保障机制就不能再局限于传统的结果规制方式,而应该适时在制度规则中嵌入代码规制,既防止了预防制那种“提前阻却”所带来的自由限制,也防止了追惩制那种“事后修复”所带来的伤害难题,从而实现场景化、过程化、智慧化的即时互动规制。可见,只有建立结果与过程兼顾平衡的规制机制,“数字人权”保护才能取得更好的实效,也才能更好地实现智慧社会的“共建共治共享”治理秩序。

   

   (三)塑造尊重人权价值的“道德基础设施”

   

   随着信息革命的到来,“发源于18世纪的自由民主制拥有出色的道德支柱,而20世纪兴起的技术垄断文明,其思维体系缺乏卓越的叙述手法,因此既无法提供道德支柱,也缺乏强有力的社会机制,以管制技术产生的‘信息洪水’”。其根本原因在于从工商业文明到信息文明的重大转型,这必然会涉及到以法治文化为内核的、尊重人权价值的“道德基础设施”的重建,从而推动“数字人权”的法治保障。

   

   一方面,应确立算法的伦理原则。面对算法歧视、算法黑箱、社会监控和隐私侵犯等复杂问题和时代挑战,单凭法律的外在规制是不够的,更加基础和经常的则是算法决策内部的自我约束。只有“当算法在质量监控之下,以公平方式影响各方当事人,正义方能实现”。因此,需要在算法决策中嵌入必要的人权价值和法治伦理,设定算法的自律准则。即在国家立法、行业自律、社会评价中确立算法遵从“善法”的伦理原则,从而尊重人权价值、维护“数字人权”和促进社会公平正义。

   

   另一方面,应培养算法“智能体”的道德习得能力。人工智能体的自主学习能力会越来越强、也会越来越智慧,此时,更需要注重“信任、隐私、透明、言论自由、开放、知识产权、忠诚、尊重、可靠、名誉、法治等。这些概念若是基础设施的话可能会更容易理解,因为基础设施能推动或阻碍(反思)智能体的道德和非道德行为”,也即“智能体的道德行为也是‘道德基础设施’”。但它不应是基于规则和责任伦理的简单道德算法,不宜采取自上而下的教导性、灌输性的进路,而应采取应用学习、自发性、进化性的自下而上式进路。它“不同于直接定义了什么是道德、什么是不道德的自上而下的理论,在自下而上的进路中任何伦理原则都必须是被发现出来或被建构出来的”。并且,使其在“‘人—机’交互主体间”的反复博弈中,才能不断地矫正偏颇或错误,进一步升级和完善。这样,就能够使算法“智能体”形成道德推理与自主德性学习的自律约束机制,从而通过习得法治伦理来自主地抑制算法风险,维护数字时代的人的地位和尊严,更好地保障“数字人权”和促进法治秩序。

   

   (《中国法学》2019年第5期,本文为文章摘录版)




本文责编:limei
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 理论法学
本文链接:http://www.aisixiang.com/data/118639.html 
文章来源:《中国法学》2019年第5期

文献数据中心|DATA CENTER

© 2009-2020 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc