论文精粹|INFORMATION
戴昕:“数字拉齐”:数字法治议题的知识线索与分析框架
管理员 发布时间:2026-03-24 11:37  点击:13

摘   要  新技术给社会不同人群带来的影响往往是不均质的,这种差异化影响为认知、分析数字法治领域相关议题提示了一种可能视角。作为知识线索和分析框架的“数字拉齐”,将技术应用的出现和扩展视为导致本限于精英群体的受惠与困扰向普通民众扩散的社会过程。“数字拉齐”提供了一种有关诸多数字法治议题生成逻辑的解释。在身份认证、智能法律服务、智能个人助理等典型场景中,“数字拉齐”可能以不同形式呈现,并对应相互区别的治理思路。当新技术应用被认为未给民众带来充分受惠、却使其面临更多新的困扰,即导致“非对称拉齐”时,严格监管的社会呼声更容易出现,也有更强的正当性与合理性。而若新技术应用给民众带来的受惠与困扰基本相当,或受惠明显超出困扰时,治理者更宜选取审慎监管策略,乃至采取以鼓励创新、推动发展为主旨的举措。


关键词  数字法治  拉齐  对齐  分配正义  智能体

引 言

数字法治领域议题繁多,昨天“前沿”转眼间就成今日“老土”。三十年前讲“计算机信息系统安全保护”时,意识到这也是个法律问题(而非纯粹技术问题)的恐怕不多。随后出现了“网络法”或“互联网法”的概念,学界尚在探讨适当立法思路之时,相关论域又马上被“大数据”和“平台”的新提法席卷。至于最近五六年,尽管人们似乎还在商榷学科建制层面应当强调“信息”“数字”还是“数据”,但真正抢手的标签早已是“人工智能”了。这真是个让定义强迫症患者抓狂的领域和时代!

不过,自民用计算机与互联网时代以来,虽然数字法治论域的名目不断更新,但其制度议题范畴逐渐变得更为清晰、稳定。围绕信息数据处理活动的个体、市场和社会影响,一系列较为集中的法律议题已经形成,如隐私、虚假消息、营销与消费者保护、网络暴力、版权、数据竞争与垄断、自动化决策等。在数字经济进入平台化后,上述制度议题对应的社会困扰持续存在,并随着信息技术对实体社会秩序介入程度的加深而沉淀。所谓“人工智能时代”来临后,许多与之相关的伦理和治理问题也并非全新的。只不过,在新型智能技术潜在的更强大的造福和致害能力面前,公众回应无论是正面还是负面,其激烈程度都可能超出以往。

基于学科建设的需要,对数字法治论域作体系化建构正成为许多学人的努力方向。有论者尝试在描述层面梳理出各类议题的可能共同点,借此建成一个内核与外延相对清晰、内部逻辑结构顺畅的论域甚至学科范畴。与上述努力略有区别,本文致力于以理论化的方式识别一种具有解释和分析功能的知识线索,揭示当下纷繁议题背后共享的某种发生学逻辑。本文探讨的问题是:现代数字技术及其应用的发展和扩展,为什么会引发诸多备受关注的治理议题?相较而言,为什么有些议题会更多受到公众及权威部门关注,且可能更值得被关注?未来重要的数字治理议题,又更可能现身何处?

这类问题当然没有唯一确定答案,并通常有多个可能解答角度。常见研讨进路侧重围绕新技术导致的社会风险及其应对来建构解释性分析。但仅有“风险”作为自变量的理论有两点局限。第一,新技术带来的治理问题之所以困难,往往因为价值和机会与风险相伴而生。对于只有风险、没有明显社会积极价值的技术应用,作出治理决策的难度不大,更多是限制甚至禁止性规定如何执行和落地的问题。第二,新技术带来的收益和风险在社会不同人群间的分布是不均质的,这种不均质分布(而不只是存在风险本身)对于理解许多争议的出现、变化乃至扩散、升级非常关键。有关数字法治的既有讨论往往在这两点有缺失,未能充分处理技术变革在效率和分配两个维度上的实质社会影响。

本文提出的知识线索和分析框架致力于更加明确地结合上述维度的考量,理解不同议题的生成和发展逻辑,进而评估相关议题的制度价值。至少自近代以来,科技发展具有特定意义上的“拉齐”(leveling)效果。所谓“拉齐”,是指技术的出现和扩散可能使此前主要限于少数社会精英或优势群体的待遇,为更大范围内的普通民众所接触、感受。而这里所说“待遇”,不仅指物质上的享受、便捷、实惠或精神层面的积极体验(自尊乃至虚荣),也包括实际损害、潜在风险及内心忧虑。例如,媒体技术的发展既使得普通民众有可能获得以往只有精英才能获得的广泛关注,也使其同时面对本只有公众人物才会面临的安宁生活被陌生人不断闯入的困扰。尽管数字法治议题在当代往往先由精英发声提起,但只有当普通民众感受较为真切时,相关议题才会在社会观念层面得到重视。而普通民众对相关议题的焦虑,则至少一定程度上来自特定技术在受惠与困扰两端的拉齐后果的不对称。特别是,在那些民众主观上认为——无论是否符合事实——其没有与精英同样受惠,却要承受与之相同甚至更严重风险的场景中,针对相关技术严格规制的呼声会更高,权威部门也可能被推动采取制度化的治理行动。

本文第一部分基于已有的法学、政治理论及科技社会研究的相关讨论,特别是有关隐私问题的讨论,对“拉齐”的含义作进一步解说。第二部分和第三部分将以身份认证应用、智能法律服务与智能手机个人助理为例,展示如何基于拉齐展开有关数字法治议题的理解、解释与规范分析。第四部分进一步提炼出基于数字拉齐的理论框架,提示其可能用于分析更多议题、并由此实现学术性串联整合的潜力。第五部分简短作结。

一、拉齐:社会分层视角下的科技影响

“拉齐”不是一个常见说法。法律与科技,特别是人工智能治理领域论述中更常出现的概念是“对齐”(alignment)。所谓“对齐”,是指社会在寻求为具有一定自主性的人工智能系统建构适当行为规范时,应保证机器行为不能偏离甚至损害人类目的,并向人类自身遵守的伦理规则靠拢。近年来人工智能“对齐”研究吸引了许多计算机科学家参与,且取得了值得关注的进展。但“对齐”的局限也很明显。如科恩(Julie E. Cohen)指出,模型训练和微调不能解决数据自身包含的质量问题。而数据背后,各类对齐努力的前提是人们在为人工智能系统设计规范时有明确、共识性的人类目的及其伦理规范作为基准,但这本身值得怀疑。伦理规范多元是现代社会的基本特征。不同社群、阶层、国家、文化、文明之间,不仅存在规范价值差异,而且由于交流和交互的增加,相互间反而更难各安其事,更容易发生碰撞、对立甚至“文明冲突”。由此,对齐面临的根本难题是,应向谁的伦理对齐?例如,“文生图”大模型应用在西方曾被右翼群体批评为过度与科技公司雇员偏自由派的意识形态对齐。而在以自动驾驶为背景的一个著名研究中,研究者设计了大量基于“电车难题”的情境,当自动驾驶系统不得不在保护不同个体的生命之间进行选择时,世界不同文化群体针对机器所做选择的伦理偏好和判断存在明显差异。这意味着我们至少很难在抽象意义上确定自动驾驶系统应向哪里“对齐”。

本文的核心论题是“拉齐”而非“对齐”。但后文将展示,从“拉齐”切入有助于思考“对齐”。在此之前,则先要对“拉齐”的含义有必要交代。“拉齐”首先是一个描述性概念,其呈现的是技术引发的社会变化过程,而这一过程是诸多规范性问题和争议产生的社会动因。

(一)拉齐:古今之变
“拉齐”来自一种现代化叙事:法国大革命之前,基于血统和出身的政治与法律地位不平等曾具有被普遍接受的正当性;而大革命使得启蒙思想家主张的新社会工程在实践层面得以启动,先天不平等的正当性被明确否认,平等则不但被塑造为一种终极追求,也成为一种现实制度诉求,引发对法律的一系列深刻改造。在大革命后到访美国的托克维尔(Alexis de Tocqueville)看来,欧洲人激烈追求并为此付出持续动荡代价的平等,在美国获得了政治制度层面的落实。尽管托克维尔认为民主/平等是大势所趋,但他也非常犀利地指出,社会平等导致美国相对于欧洲在文化上庸俗,即社会品位被向下拉齐(leveling down)。他观察到,在其访问时期,美国没有像西欧那样出色的艺术作品,因为美国的艺术创作以不享受特权者作为创作者和受众,呈现并寻求满足的都是老百姓的口味,这与西欧由贵族供养艺术家的生产模式不同。当艺术扩展为民众所创作、享有时,民众在享受艺术机会方面的待遇被向上拉齐,但艺术创作的品位则被向下拉齐。

拉齐或“夷平化”的过程及其影响在现当代社会学研究中同样是一个重要主题。所谓社会“麦当劳化”的论题,即是承认并批判现代社会生活诸领域中伴随效率化、规模化而出现的标准化、同质化。而托克维尔有关“多数人暴政”、社会文化品位和公共话语质量被向下拉齐的警示,在如今基于网络传播的社会舆论环境中更值得重视。但夷平化作为一种变动过程(dynamics),本身并不意味着社会最终会实现全方位平等。尽管现代化不断带来拉齐压力,但正如布迪厄(Pierre Bourdieu)等指出的那样,社会精英会运用大量更为微妙复杂的区分策略,通过文化资本的生产和积累实现不平等的不断再造。然而,由于平等观念在规范维度的至高正当性被不断巩固,任何不平等的事实一旦被发现、揭露,都可能创造新一轮推动拉齐的动力。而数字技术的拉齐效果及其影响则需被放在这一因没有明确终点而注定持续不停的社会进程中,才能被更为全面地理解。

(二)隐私理论中的拉齐
本文对“拉齐”概念的使用直接受美国比较法学家惠特曼(James Q. Whitman)的启发,但有所区别。惠特曼用“拉齐”解说西欧隐私法现代化的过程。美国与西欧的法律制度虽都将“隐私”(privacy)视为重大法益,但两大法域对隐私的理解有深刻差异。惠特曼指出,西欧现当代的隐私法律规则,其价值基础是大革命前专属于贵族和社会上层的荣誉、尊严观念,与普通百姓无关。在大革命开启的政治与法律现代化浪潮中,法律地位的形式平等意味着包括人格尊严、隐私在内的各类权利要从特殊待遇变为所有公民享有的一体待遇。在欧洲,这一将法律权利“向上拉齐”(leveling up)的过程从法国、德国民法典(包括纳粹时期的法典)一路展开,至《欧洲人权公约》订立时达到高峰。但惠特曼同时指出,法律权利层面的拉齐不等于实际社会影响甚至关切的拉齐。直至21世纪初,西欧最常见且引人瞩目的隐私权纠纷,仍以社会精英,特别是有鲜明旧大陆特色的王公贵族作为主要当事人,这说明法律权利的普遍化更多是一种形式意义上的价值表达。作为参照,惠特曼还指出,北美法律上的隐私权发端于沃伦(Samuel Warren)和布兰代斯(Louis Brandeis)19世纪末那篇著名论文中的呼吁,但两位作者在平等至上的北美社会中,其实是接近欧陆式贵族的新英格兰社会精英,他们有关隐私的焦虑来自欧陆式敏感(sensibility),与美国当时民情脱节。因此,沃伦和布兰代斯文中的隐私权规则主张,在此后数十年中都难以获美国普通法采纳,甚至隐私常被认为不符合民主政治透明和权力监督的要求。

而弗里德曼(Lawrence Friedman)有关北美19世纪隐私法与社会规范的研究同样印证了这一点。根据弗里德曼的描述,19世纪北美社会公认的主流道德规范较为严格,既有明显的清教色彩,也体现类似英国维多利亚时期的正统意识形态,对个人失范行为宽容度很低。而这意味着社会精英失范行为一旦遭暴露,便会受严厉社会制裁,身败名裂,其多年辛苦积累的社会资本顷刻化为乌有。弗里德曼指出,包括严惩敲诈勒索在内,一系列保护隐私的法律制度在当时起到的作用,正是为可能面临严重社会制裁的精英留出一些回旋空间、提供二次机会,由此避免社会及文化资本的轻易耗散。与此同时,隐私保护的微妙作用,还包括在放松社会规范对精英束缚的同时,维持其外观上的严肃性甚至严厉性。借助隐私保护达到的这种社会规范“外紧内松”的效果,被弗里德曼概括为“维多利亚妥协”(Victorian compromise)。维多利亚妥协的存在说明即使在19世纪的北美,隐私同样更多与社会精英、而非普通大众的利益诉求关联。而在20世纪大众传媒迅速发展、扩张的背景下,维持维多利亚妥协的难度越来越大。北美精英不但没能像西欧精英那样,借助将民众法律权利向上拉齐的方式保护自身隐私,反而在体现民主与平等精神的宪法言论自由压力下,被要求将其享受到的法律层面的隐私保护降低到普通民众之下,个人生活受民众更多监督甚至窥视。如斯卓希利维茨(Lior Strahilevitz)指出的那样,这种规则又进而将普通民众能够消费到的八卦消息的质量与精英拉齐。

(三)技术驱动拉齐
上述讨论展示出引入社会分层视角对于理解特定法律权利规范的兴起可能提供的启发。不过,特别是在惠特曼的理论叙事中,“拉齐”描述的主要是观念驱动下的法律变革。而本文则致力于强调,在权利普及化等法律形式层面的拉齐背后,特定物质技术条件的变化,会首先引发不同阶层间社会经济待遇的拉齐。这种客观利益或福利层面的拉齐过程,则会进而影响惠特曼等人所关注的观念,并生成在法律层面的权利或规则诉求。例如,现代大众传媒及其使用的摄影摄像技术兴起,既因应、同时又在很大程度上驱动了普通民众获取精英个人信息的需求,并由此刺激精英对强化法律保护隐私的诉求。反过来,当代的技术进步使得内容生产和传播成本不断降低,普通人的个人生活也可成为公共传播素材;从传统媒体时代的“自愿型公众人物”到社交媒体时代的网红,民众被裹挟进基于个人信息生产流量的时代洪流之中,由此也体会到了被关注的虚荣与焦虑。在这种拉齐过程中,普通人的隐私保护诉求不断提高。在“自愿型公众人物”相对少见时,法律似乎仍可论证这些“脱离群众”的少数在隐私保护方面应被向下拉齐到传统精英的水平。但当社交媒体使得大多数用户都一定程度上成为“自愿型公众人物”后,这一概念在法律制度中的重要性注定衰落,基于尊严、体面以及安全的新型数据隐私规则,也即个人信息保护规则,成为技术驱动的隐私困扰拉齐背景下体现民众普遍需求的制度。

由技术变革因素带来的待遇拉齐、观念拉齐,在中国隐私规范发展历程中同样有所呈现。中国传统社会中并非不存在隐私观念与规范,只是以非常特定的精英文化规范和叙事呈现。类似西欧社会,中国传统社会中隐私是精英阶层的专属待遇,无论在皇城内、官邸中或“采菊东篱下”的士绅宅院里,精英(“君子”)有充分物质条件获得独处、不受打扰的环境,而其享受这种条件的规范证成则往往是修身慎独、“养浩然之气”,最终还是服务于其背负的家国责任。与之相比,普通民众(“小人”)不可能有这种规范预期,而这不仅来源于儒家意识形态,也由于客观物质保障缺乏:农业社会百姓的普通居住模式往往缺乏内部空间区隔条件。正如阎云翔在其知名民族志研究中所描述的那样,中国北方农村直至改革开放前仍主要以“南北炕”的形式安排居住,不仅家庭内部两代夫妻同处一室,且家庭外社区成员来访时也直接上炕,由此消弭了家庭作为私人领域的边界。而改革开放后,农村青年人进城,看到城里人居住的包含更小私人空间区隔的“单元房”,才意识到生活空间秩序的不同可能并回村仿建。这种生活物质条件的改变支撑了新一代农村青年人对私人生活空间的追求。换言之,中国农村社会隐私意识的出现和成长,可理解为客观居住条件拉齐的后果。

而在城市,技术驱动的拉齐同样促生新的隐私诉求。21世纪中国法院裁判的隐私相关案件中,邻里监控纠纷是一种常见类型:城市居民因在住宅门口或附近的公共区域内安装监控摄像头而与邻居发生矛盾,其背景是拥挤的城市居住环境由于经济转型和人口流动增加而从熟人社区变为陌生人社会,催生出人们借助监控提升安全感的需求。传统条件下,普通人掌握的物质技术条件难以实现对陌生人的一般信息监控,只有社会精英有能力购买并获取此类服务。但摄影摄像技术及设备成本的大幅下降,使对临近生活环境安全性存在焦虑的普通城市居民可以较为轻易地获取监控能力,这反过来又导致潜在被监控对象的隐私和安全焦虑爆发,使得此类纠纷不断进入诉讼,法律也必须做出回应。

(四)“数字拉齐”作为理论线索与分析框架
前述有关隐私的讨论旨在例示,本文所说的数字拉齐——数字技术导致此前主要与精英相关并为精英感知的受惠、优待和困扰、负担向公众扩展,首先可作为一种解释理论,帮我们理解各类数字法治议题的发生逻辑。在客观事实或至少主观感知层面,当数字技术在受惠侧未能拉齐,在困扰侧却明显以更大幅度带来拉齐时,公众围绕相关技术应用产生的焦虑和负面情绪会尤为强烈,对其严加监管甚至限制的诉求也可能更为突出。

但在解释之外,数字拉齐作为分析框架也有规范意蕴:对于可能成为法律规制对象的新技术及其应用,决策者是否能基于某种标准对其进行合理甚至可欲的区别对待?本文采取一种具有社会分配关切的福利视角。抽象而言,如果特定技术应用带来普惠,且不至于导致原有少数人面临的困扰向民众全面扩散,这当然是符合帕累托标准的理想改进,治理者应当鼓励、保护,甚至想办法推动这样的技术进步。反过来,如果特定技术的结果是使原本局限于一定范围内的困扰广泛扩散,但没有给公众带来足够受惠,治理者对此类导致“非对称拉齐”的技术应用就需要更严格干预。甚至,即便拉齐的这种“非对称性”主要是民众主观感知上的“错觉”,例如相关社会叙事可能过度放大了特定技术应用对普通人的风险,从适当安抚社会情绪的角度出发,治理者也可以、甚至应当有回应性作为。若技术应用带来受惠与困扰同步扩展(“对称拉齐”),或受惠与困扰均未普遍化(“局部技术创新”),则其福利意涵相对模糊,决策者在这些不确定性更高的场景中需要肩负更大决策责任。

表1 数字拉齐的理想类型


二、身份认证技术的拉齐效应:从“特权便利”到“普遍风险”

尽管隐私是与数字技术相关的法律议题中最广为人知的,但与隐私紧密联系的身份认证问题更具基础性。可以说,数字技术最重要的底层社会应用,就是借助对个人信息进行更为高效、多元的处理,而在更广泛场景中允许更多主体为不同交易和治理目的开展身份认证。便利的身份认证可以让更多人享受到基于认证方能获得的服务、交易机会和其他待遇。但广泛、频繁、普遍覆盖的认证也可能增加民众困扰。思考相关技术应用引发的拉齐属于何种性质,有助于我们理解为何包括人脸识别在内的许多认证技术会面临反对甚至抵制,并有助于分析已有和潜在规制措施的福利意涵。
(一)公共与市场领域身份认证的普惠化
各类公共机关在配置稀缺资源时均需对其所在治理共同体的成员“验明正身”。在个体间相互依存、共同建构的群体中,为共同秩序、福利、效率、公平等目的,各类收益和负担通常需要最终配置到个体之上。无论是收税、征兵、授予经营资格还是发放贫困补助,治理者能够识别、确定不同配置对象的身份,将其正确区别开来,避免遗漏或重复,是相关资源配置决策取得意图乃至理想治理效果的基本前提。实现认证、特别是大范围身份认证的能力,并非为治理者理所当然掌握,其不仅需要组织和制度性建设,也与特定时期不同类型治理者可用技术的水平有关。例如,在印度,公民身份认证能力的缺失使政府长期难以有效提供公共福利,并困扰于大面积欺诈与腐败;直至2010年引入当时已逐渐成熟、可快速规模化的基于云计算的生物信息识别技术后,覆盖印度95%人口(约11亿人)的Aadhaar身份系统才在2017年得以实现。

尽管借助数字技术实现更为高效的身份认证,看上去是治理者加强控制的需要,但治理者认证能力的提高,也使其可进行更大规模、更大体量的有效资源配置,被治理者往往从中受益。传统技术条件下,公共机关开展认证可能需要相当繁琐的书面证明材料,甚至提出听上去匪夷所思、但细想又至少在特定技术条件下无法避免的“证明你妈是你妈”的要求。但当政府建成更为高效的政务信息系统,将各类可用于身份认证的信息在数据标准化的基础上实现联通后,公民需要负担的配合认证成本大大降低,像异地办证、异地使用医保等管理服务开展的难度也大大下降,甚至可实现“一网通办”。换言之,对于普通公民来说,数字化认证技术的这种政务应用是一种具有普惠性质的拉齐。之所以如此,是因为此前也不是所有人办事都一样困难:占有优势社会关系资源者,本就可获得“容缺受理”——例如少个把材料也能办事,或者比其他人都更为快速地先完成认证。而当公共治理者开展身份认证的能力普遍提升之后,缺乏社会关系资源的普通民众也可获得类似待遇。

但身份认证并不仅仅为公共治理所需。在市场经济活动中,认证同样是许多交易得以开展的基本前提。在数字技术、特别是数字身份相关的技术基础设施快速发展的背景下,商业经营主体和服务中介可以快速完成对潜在交易对象的身份认证,这是广大电商消费者能够像传统时代的社会精英那样享受送货上门、送服务上门的技术基础。消费之外,认证技术在普惠意义上带来的拉齐还体现为信用扩张。信用对应着个体在当下有效运用他人提供的财务资源的能力,而其前提则是他人对个体未来如约履行有充分预期和信赖。传统条件下,信用只为少数人享有,因为他人对个体偿还的预期不是建立在后者拥有的社会网络资源(及其中包含的信息和监督)基础上,就是建立在其能提供的抵押物基础之上——这两类信用基础在社会中的分布并不均匀。进入现代社会,信用的扩展、扩张,乃至所谓“普惠金融”的兴起,其前提是社会资本和物质财富占有都较为有限的普通公众,也可在个人信息被广泛收集、整合的基础上,建立起个人信用记录,成为金融机构、财务投资人分析、评估其履约能力和违约风险的依据,并由此获得信贷。

(二)身份认证技术引发的困扰拉齐
显然,认证相关技术的拉齐效果不完全是积极、正面的。尽管普通民众享受到了更为便捷的身份认证,能更高效地获得公共服务,参与以往无法参与的商业交易,但原本少数人面临的困扰也被普遍化。“人脸识别”是计算机视觉技术最为广泛落地的应用,其核心功能就是身份认证。自然人的面貌特征在传统社会就被用于认证身份,但这种认证以往主要限于熟人社会,陌生人间的交往很难基于面貌特征完成认证,而通常基于权威文书(“我你都不认识?”“不认识,请出示证件”)。对此主要的例外,即比一般个体具有更高知名度的社会精英往往可豁免书面认证。例如,特定单位出入门禁环节要求身份认证,但本单位高级别领导常可免于普通职员需要遵守的证件出示规则;通俗说法,即领导可以“刷脸”进门。类似地,在消费场所,名流、明星往往也只需要“刷脸”,经营者一旦认出,便可予以优惠,例如吃饭免单、购物“插队”等等。换言之,传统上基于人脸的认证是获得优待的基础;“刷脸”是个好词,对应的是少数人特权。

但不过短短十年之间,“刷脸”或“人脸识别”便在公共话语中成了备受争议甚至常有负面意涵的说法。这又该作何理解?其实,能够“刷脸”固然对精英而言曾是种时常有利的特殊待遇,但其面部特征的高度可识别性也意味着困扰。特别是当在特定场合不希望被人识认、想要保有自身生活安宁和自主性时,他们仍常会“为声名所累”。甚至,由于这张脸的高度可识别性,名人成为犯罪行为对象的风险也会提高。这些风险使得社会精英不得不投入更多资源,无论是购置深宅大院,还是出入聘用扈从、使用私人交通工具,以求安全与安宁。

而在借助人脸识别等技术机制将快速、便捷的认证普遍推广后,普通公众同样也开始意识到,自己逐渐在不同程度上丧失了原本享有的匿名性(anonymity)或“事实上的不可辨认性”(practical obscurity),并由此面临垃圾广告、窥私、电信诈骗、网络暴力等各种各样的侵害风险。与更多便利一样,更高风险同样是身份认证技术的拉齐后果。正如一些早期观点所言,如果没有网络实名制、没有人脸识别,相关安全风险确实不会发生,而这些风险引发的各类应对成本也不会出现。但鉴于认证本身促进了公共服务与市场交易的扩展,若仅仅将认证要求归为万恶之源,主张“回”到普通人无需身份认证、但也难以获得资源和机会的时代,则失于简单甚至极端。实际上,身份认证技术带来的拉齐,之所以引发较大社会争议,不在于其带来困扰一侧的拉齐,而在于受惠与困扰两侧拉齐程度不对称,或至少在民众感知层面不对称。一方面,数字认证技术的普遍推广和认证要求的全面铺开,虽然带来的额外认证负担不多,但其导致的个人信息侵害和数据安全风险在社会认知中的显著性却非常高。在媒体渲染之下,许多用户都接受人脸识别存在严重风险的叙事。另一方面,数字认证普及后,民众虽然事实上获得更多便利和交易机会,但对此感受很可能并不明显、也很难明显。“便利”是一种习以为常的属性,一旦习惯,就会成为理所当然。更重要的是,便捷认证普及虽有拉齐效应,但在结果上远未实现民众与精英基于身份认证便捷的待遇齐平:精英通过“刷脸”等便利认证,获得的是超出民众的特殊优惠待遇,而“优待”不可能普遍化。当所有人都可以从闸机“刷脸”进门时,这与此前领导在门卫那里“刷脸”的特殊待遇显然不同;甚至,当用闸机“刷脸”成为一般员工都被要求使用的认证方式时,领导或许仍可因其能被门卫一眼认出而被直接放行。这意味着认证在受惠一侧不太可能让普通人感受到充分拉齐。而若困扰侧的拉齐在社会认知层面更为显著,这种认知层面的不对称就可能是负面社会态度的来源。

类似地,信用领域的拉齐也存在受惠与负担两侧不对称的情况。首先,P2P、大数据风控等声称可借助更丰富替代信用信息评估信用、扩展信贷的“互联网+金融/信用科技”,大大增加了金融消费者个人信息被处理的规模,由此扩大了与个人信息滥用相关的安全风险。而相比借助这类新型信用机制获得信贷的金融消费者,传统社会精英拥有私人银行等更为成熟、规范、受更严格监管的金融机构为其提供信用评估和信贷服务。因此,信用场景中的数字拉齐,在负担侧甚至可能导致金融消费者面临更严重的信息致害风险。其次,新型消费金融所基于的信用评估和相关操作,虽在逻辑上与传统信用评估一致,均旨在通过过往记录评估未来行为倾向,但相比之下,其在推动信用扩张方面更为激进,方法更有争议。从已有经验来看,由于相关金融企业在风险评估方面过于宽松、追求信贷扩张过于激进,导致金融消费者面临超出其承受能力的敞口。换言之,在信用领域,即使看上去是受惠侧发生的“拉齐”,实际上却还在增加普通人的风险。更不用说,基于2008年金融危机的经验,个人信贷的过度扩张,借助金融衍生品交易机制,最终酿成系统性风险,而批评者认为代价最终主要由普通民众、而非金融业精英承受。最后,还应看到,信用即便再多扩张,其本质还是要对潜在用信人实现区别对待,即发现一些人比另一些人信用更高。这意味着,在稀缺性约束下,信用在受惠侧的拉齐理论上是有限的。因此,数字技术给信用领域带来的更可能是非对称拉齐,信用扩张并未真正地拉齐普通人与经济精英之间在金融资源获取机会方面的待遇,却为其带来与受信相关的更高风险。

(三)解释性启发与规范意涵
在普通民众认知和感受层面,在受惠和困扰不对称的拉齐进程中,民众对引发拉齐的相关技术及其应用更容易生出担忧、焦虑,甚至明确反对和抗拒,由此对治理形成压力。个人信息处理技术和应用带来非对称拉齐,也可作为理解过往几十年间各国有关数据隐私和数据安全问题相关争议的切入点。例如,非对称拉齐或许有助于解释,相比于中国,西方民众对包括人脸识别等在内的个人信息处理技术为何会有更为广泛和强烈的负面态度。与中国相比,西方社会内部的分层不仅是经济社会地位维度上的,且与种族或族群身份紧密绑定。这使得数字技术推广过程中拉齐的非对称性会同时在种族维度上凸显。原本即处于不利社会经济地位的少数族裔,在身份认证技术推广过程中,获益不但有限、甚至无法感知,而且还会担心将遭受更多负面区别待遇。

当决策者关注到特定数字技术应用带来非对称拉齐时,其在规范层面应如何思考可能的政策和制度因应?或许至少有两点值得注意。其一,在决定是否要做出干预之前,决策者应审慎观察,评估当前所见或至少被部分民众感知到的非对称拉齐,是否已处于均衡状态,抑或仍是相关技术应用扩展和普及进程中的一个阶段,而技术带动的普惠效果将在未来进一步实现,让普通民众有更高“获得感”。毫无疑问,这种评估并不容易。“用发展的眼光”审视技术通常是对的。但决策者的决策压力既来自公共意见和舆论,也来自不确定性,而后者尤其严峻,因为我们很难准确预知不同的技术及其研发应用路线的前景。而如果确定将“包容审慎”作为对待新兴科技应用发展的总体政策方向,那么决策者面临的考验,在于其定力大小。

第二,即便把握“在发展中解决问题”的大方向,也不意味着治理者必须尽量“无为”。如果在受惠侧无法进一步拉齐,例如认证领域中基于优惠待遇本身具有的相对性,不可能让每个人都事实上受到超越其他人的优待,那么需要考虑的就是在困扰侧尽可能加大制度性保护的供给。如前所述,社会精英相对而言有更强能力利用自有资源应对便捷认证引发的安全风险,但普通民众往往缺乏相同资源,或至少无力支付。而法律既具有实际提升民众获得的安全保障水平的作用,又有利于缓解风险认知给民众带来的主观焦虑。换言之,在客观和主观两个层面,法律的制度供给对于支持便捷认证技术持续发挥其积极作用都有重要意义。而在如信用这样的领域中,受惠拉齐的目标可以校准为实现差异化个体应得(deserve),即保障每个个体都应基于其实际履约守信的状况而有机会获得合理信贷资源,以追求自身目标。有效的监管应致力于抑制过度投机,禁止向个人提供超出其理性认知和决策能力的信贷产品,并在宏观层面预防系统性风险。只有以充分监管作为基础设施,金融科技创新才不至于沦为投机者花样“收割”民众的幌子。

三、人工智能的拉齐与对齐:智能法律服务与智能个人助理

“人工智能”本身是一个涵盖广泛的概念,前文讨论的人脸识别、金融科技等也可落入其范畴。此处集中讨论的是近年受最多关注的以大语言模型为基础的新型人工智能。无论业内还是业外,人们基于大语言模型所设想的通用人工智能(Artificial General Intelligence),被认为将对大量人类工作、甚至人类工作者本身实现替代。从拉齐的视角,我们可以更加清晰地看到“替代”的利害关系何在:人工智能到底会将全人类彻底从通常意义上的劳作中解放出来、在物质极大丰富的前提下实现真正平等的共产主义,还是会使资源、财富与权力进一步集中在极少数精英手中、引发更为极端的不平等?本文不介入有关人工智能终局的深刻争论。这里的关注是,试图通过结合已有的应用场景,展示数字拉齐视角如何帮助我们理解人工智能相关法律及治理议题的生成和展开。
(一)法律服务的智能拉齐
正如卡夫卡(Franz Kafka)的名作《审判》中的著名隐喻所揭示的,尽管“法律之门”按理向所有人敞开,但许多普通人终其一生不得门径而入。老百姓对法律的那种因自认无知而心生怯惧、因望而生畏则更觉无从了解的心态,是法律职业的社会价值凭据,也被诟病为职业群体为维护法律服务市场中的垄断而营造的迷思。

在传统时代,顶尖法律职业人士的基本画像是博览群书且过目不忘,这不仅意味着本人拥有很高智力天赋,而且意味着其有充足经济实力,能负担在藏书丰富的高水平法学院校完成学业的成本。换言之,传统时代的法律能力专属于精英。但最近数十年中,尽管法律相关的知识规模和复杂性不断增长,新的信息科技工具却又使得法律检索、研究、学习及在其基础之上的法律实践能力在更大范围内得以普及。而生成式人工智能则是法律能力普及的最新动态。2022年末,ChatGPT即号称可以通过美国的法学院课程考试。而对于遭人诟病的大模型幻觉问题,技术和工程领域的专家也在持续寻求解决方案,例如使用检索增强生成(Retrieval-Augmented Generation,即通俗说的给大模型“联网”)策略,或完全使用专业的法律语料、而非通用互联网语料来训练模型,等等。根据目前的基准测试,各类大模型在完成法律场景中的问题识别、规则检索、推理论证和意见生成等任务时,表现参差不齐,而幻觉及稳定性等问题基于大模型技术原理,也无法根除。尽管如此,法律职业群体还是普遍意识到应对大模型挑战的紧迫性。

引入拉齐的视角,我们可以更好理解法律职业群体的焦虑,并预测下一步可能出现的政策或制度动向。实际上,AI工具被应用于法律服务场景时具有较为明显的普惠属性。在绝大多数国家、对于绝大多数普通公众而言,专业法律咨询及法律服务的成本通常都超出其支付能力。不是所有的法律服务在绝对意义上都很昂贵,但对普通老百姓而言,想要就日常生活中的一般法律关切获得咨询,甚至寻求纠纷解决,所需要支付的律师费成本往往会超出其支付意愿。以美国近年的数据为例,解决一件民众日常生活中会碰到的纠纷,花费的律师费在2754至6370美元之间,而同期该国家庭年收入中位数也只有67000美元左右,前者对中产家庭构成重要财务压力。在这种情况下,据估计,每年美国约有1亿2000万件法律纠纷无法获得解决。如果AI能接近免费(或月费20美元)为普通公众提供其日常面临的一般法律问题的答案,这在“接近正义”(access to justice)的维度上,无疑是将普通民众的处境向传统有财务或社会资源获取律师服务的精英阶层拉齐。

不过,法律领域的AI应用能带来的,到底是对称拉齐、非对称拉齐,还是帕累托拉齐?如前文提到,根据目前技术能力,机器回答法律问题的可靠性和完整性仍有局限。然而我们不应忽略稀缺性。尽管AI提供的法律答案质量有缺陷,特别是常被法律专家认为不够精准、完整,但绝大多数老百姓此前获得法律问题答案的方式主要是通用搜索引擎服务,后者表现已经不如目前的AI法律应用。不仅如此,AI工具除了直接为需要法律咨询服务的民众使用,还可为个体执业、在相对小型规模律所执业的律师,以及相对年轻、专业知识基础和训练教育背景稍弱的律师所使用。后者基于有效知识管理的执业能力由此能与大律所接近,而这有助于进一步降低律师服务成本。这一机制可间接产生增加普通人“接近正义”能力的拉齐效果。

而在困扰侧,相关分析则更复杂。鉴于大模型幻觉难以克服,普通人借助AI获得法律咨询和服务的绝对质量尚不能与大企业、大机构以及社会精英购买的高水平法律服务完全持平。特别是模型幻觉的存在,可能意味着普通人相比于社会精英会更多面临可类比为律师渎职(malpractice)的损害。更微妙的是,基于近期一些研究,AI在进行法律分析和判断时,相较于人类专家体现出更强的法律形式主义倾向,即其做出的判断会更多以法律规则、判例等正式权威规范作为主要依据,而不像人类专家那样有可能基于现实、人性因素的考虑,选择突破规则、判例的严格束缚。如果最终完成法律判断的权威仍然是人,那么基于现实主义思路提供的咨询对于客户而言仍更可靠。而假如普通民众获得的法律意见主要基于形式主义,此时民众因“错误”信赖而承受的决策损失,可能比有AI之前更为严重。在这个意义上,或许有理由主张,AI带来的拉齐效应,在困扰侧增加了民众获取法律咨询过程中面临的因法律意见质量缺陷导致的风险。但即便如此,这恐怕仍意味着发生了向上拉齐:在原本无法获得法律服务时,普通民众当然不至于担忧会受到律师渎职之害。

因此,总体来看,法律领域的AI应用带来的至少是对称拉齐,甚至可能是帕累托拉齐:在受惠和困扰两侧,均使普通人的处境向精英靠近,且技术给普通人带来的额外负担总体来看低于或至少不会超出其获益。假如普通民众对AI提供的法律意见和建议过度信赖,对其决策价值过度看重,当然可能引发风险。但在任何给定时点上,治理者可以将民众接受AI法律服务的场景限定在那些人类律师总体上不愿投身的领域,如公共法律服务,由此使得民众的处境至少不会因为信赖AI而比原先信赖通用搜索引擎时更为糟糕。

(二)智能个人助理
智能体(AI Agent)是生成式人工智能落地应用的风口。目前市面上已有的智能体在此前大语言模型类应用基础之上的主要改进,是部分提供了记忆、工作流自主规划和工具调用能力,因此更接近人们在预想中最希望AI能够成为的样子——智能化工作和生活助理。许多款新型手机都已为用户提供了基于智能体的服务,用户向智能助手发出如“打车”“点外卖”的指令,智能体便可进一步设计工作流、自行调用手机上的相应应用软件,并执行所需操作。而在未来,端侧智能体的开发和部署应能帮助用户高效管理日程,料理必要杂务,提高核心工作任务完成的效率,等等。尽管这种更强大的端侧(或云侧)智能体目前尚未落地,但参考最新出现的测试性产品,技术的进展速度使观者对此不能太过保守。如果是智能个人助理达到或至少接近达到高效提供上述服务的能力水平,那么从拉齐的角度来看,这是几乎没有争议的巨大普惠力量:目前为止只有精英阶层享受过的特权服务将扩展至普通民众,更多人可从日常琐碎中抬头,放眼“星辰大海”。

但在困扰侧,智能个人助理同样会有不难想见的拉齐效应。当下已有手机智能助理常被发现存在较为恶劣的数据隐私侵权问题,例如会在用户未知情、授权时开启无障碍权限,收集各类用户信息,完成许多可能给用户带来财务和其他风险的操作。要约束这样的行为,固然在执法层面总有操作困难,在规则层面却无含糊之处:权限滥用和个人信息过度收集本身违法,厂商私自开启终端上的无障碍权限不但给用户带来风险,也未让用户享受到太多好处,因此必须保障后者的知情和控制,其不想打开时决不能被默认授权打开,想要关掉时确保实际已被关闭。

但终有一天,当普通用户能明显感受到智能个人助理为自身生活便利和工作效率带来实在提升时,智能个人助理的困扰拉齐问题会以更棘手的方式显现。这是因为,只有在广泛收集、处理用户个人信息(包括敏感个人信息)的情况下,智能个人助理才可能为我们提供周到、体贴甚至善解人意的定制化服务;但如果为了好用,人们允许智能助理全面、深度介入自己的日常生活,这会意味着更大风险。当下已有的基于个人控制的数据隐私规则,例如数据处理最小化规则,在原理上无法应对智能个人助理可能带来的上述风险:如果智能个人助理可以在去医院就诊前就帮你整理好病历信息和用药历史,在出行前为你详细做好行程安排及路线规划,谁能舍得把授权撤销?谁又会不舍得把信息和盘托出?如果越高的定制化意味着越好的服务效果,那么在个人信息处理层面何为“最小必要”就很难说清。因此,如果没有针对智能个人助理的新规则供给,这类应用的拉齐效果可能仍是不对称的,普通人尽管从更为普及的助理服务中受益,但一个掌握并安排用户生活细节的智能体应用,也将是他人可能用以伤害用户的最佳工具。

如果要避免智能个人助理导致非对称拉齐,有关其如何进行信息处理和决策行为的规范就非常重要。但这样的规范应如何建构,目前来看并不明朗,因为相关问题离大多数人既有生活经验确实太远。这种距离不是由技术环境造成的。如今的普通消费者早已积累了大量网络购物、电子支付乃至社交媒体使用经验,借助新闻曝光也能时常了解商家滥用个人信息、危害消费者权益的行为,这使我们对于上述场景中应有何种保护性规范大概都有些想法。但普通公众缺乏的是使用“个人助理”或者“生活/办公秘书”服务的实际经验。传统上,这些服务专属于如高级别官员、企业家、文娱明星等社会精英。如果普通人也将借助智能手机享受到个人助理服务,那么对于这些了解我们所有生活细节的服务提供者,我们并不清楚应期待其行为遵守何种规范、受哪些约束——正所谓“贫穷限制了想象力”。

而恰是前述基于拉齐的分析,为我们提示了如何建构智能个人助理行为规则的“对齐”思路:一种可能路径,是寻求了解并理解,在历史上和现实中,那些先人一步用上秘书或助理服务的社会精英,在把自己工作生活世界的重要部分托付给后者时,为后者的行为订立了哪些一般原则和/或具体规则?除了针对特定类别信息的明确保密规则外,在个人助理与其服务对象之间,最重要的规范可能与维持信任有关。“信任”是一个关系概念,在信任关系持续的基础上,服务接受者不需要对助理可能采取的各类具体信息处理行为作细节控制,而可在一般托付后期待后者不背信弃义、危害自己,并为促进实现服务对象的利益作出合理决策。为维护这种信任关系,则需要一些框架性规范,如避免利益冲突等。对于手机智能助理而言,类似的信任规范确有建立必要,而现实法律制度中有一些可供参照的模板,例如信托法、企业法等领域的信义义务规则等。如果通过制度供给,让普通人在使用智能助理时能获得类似传统条件下精英可期待其助理所遵守规范的保护,那么这种规范上的对齐就有助于智能个人助理促成对称拉齐甚至帕累托拉齐。

(三)规范意涵:基于“拉齐”理解“对齐”
如前所述,为新型人工智能系统建构行为规范的制度供给过程,涉及当下热门而又颇多争议的“对齐”概念。各类对齐努力所面临的基本挑战,是社会伦理规范系统的多元性,以及多元伦理系统之间存在的对立和冲突。例如,为加强对性骚扰行为的治理,从加强预防和便利证明的角度看,增加监控应是一种行之有效的手段。但为了治理性骚扰,监控要增加多少,监控本身应有何种限度,不同性别和阶层的伦理认知与判断会出现重大差别。而监控规范的制定,应向哪种伦理“对齐”,注定就有争议。从拉齐切入思考对齐,有助于在一些语境中找到基于对齐理念推进制度建构的实在思路。恰恰是由数字技术发展和应用引发的拉齐,社会不同阶层和群体有了更多发现其相互间伦理认知和规范基准差异的机会。发现差异的后果当然可能、但并不必然引发冲突。正如前文有关智能个人助理的讨论所示,技术带来的拉齐效应使普通公众进入此前只有精英才会进入的处境,可就此前并不熟悉的生活场景展开伦理想象,而这才使以“对齐”为目标的制度建构努力成为可能。

而建构新的大众化人工智能应用所应遵循的伦理规则,基本的对齐思路正是以精英阶层在原有处境中已形成的伦理规范为方向,作向上拉齐。仍以智能个人助理为例,除了信任外,原有的服务对象—助理关系规范中,可能还有更微妙、更难把握的一类,其关乎的诉求或可称为“体贴”和“体面”。这种规范诉求在拉齐之后会更清晰地凸显出来,并成为“对齐”的方向。例如,若用户手机上的智能助理可以了解甚至推测其需求,知道用户最近身体质量指数超标,在其下班到家前,就已为其点好一份热量较低的晚餐,而用户因工作太忙,甚至根本没想起要向智能助理提出这个要求。更体贴的是,在用户搭乘地铁回家途中,考虑到身边其他乘客会瞥见用户手机屏幕,因此智能助理绝不会在这段时间里向屏幕上推送提示(“你最近胖了,应该注意饮食,别再大鱼大肉”),这就更让人感到舒服。现实生活中,特别有“眼力价”的秘书或助理,与服务对象之间会有这种默契,而默契既来自对主顾个人的充分了解,也体现出对“人情世故”(即社会规范)的拿捏。作为一种可能的对齐思路,“体面”(decency)的理念背后原本有与等级化社会规范相关联的价值。在当代由新技术促成的数字拉齐进程中,我们可以尝试借鉴那些原本限于小众的价值规范,在更大范围内推动社会规范更新。

四、数字拉齐作为解释线索与规范框架

在解释维度,拉齐提供了较为集中、统一的理论线索,有助于我们将思路聚焦到推动数字法治议题产生的社会利益结构变动与认知变化上来,并由此更好地把握、预估相关议题的发展方向。而基于这种实质上仍以公共选择为底色的实证解释,数字拉齐也可启发规范思考。尽管各类新技术刚出现时都可能在不同程度上引发社会焦虑情绪,但权威决策者和监管机构显然不应简单被热点牵引着开展工作。即使技术应用在困扰侧引发的拉齐过程会引起社会担忧,治理者也需有长期视野,审时度势,评估这种拉齐过程可能达到的相对稳定或均衡的状态具有何种规范属性,并基于这种评估为其匹配适当制度供给策略。前文的示例讨论已指出,以保证数字技术带来整体社会福利提升为目标,监管干预在非对称拉齐发生时有明确必要性。但干预非对称拉齐的方式有多种选项。在如公共场所应用人脸识别设备等情形中,民众在困扰侧感受到过度拉齐,可借助加强对个人信息处理行为的限制与规范来缓解,使技术应用给普通人带来的新增负担尽量降低到与其新实现受惠更为相称的水平。同时,治理者也可通过推动受惠放大的方式提高拉齐对称性。例如,针对个性化算法推荐服务,相关制度可更为实质性地规范厂商借助算法所提供服务的质量,使用户感受到个性化推荐相对于传统内容分发的优势,而不只是时常因怀疑自己被暗中窥探而感到不适甚至脊背发凉。

针对其他几类拉齐,监管或治理供给同样可能有益且必要,但相关建构思路又与非对称拉齐的情形有所不同。首先,在对称拉齐场景中,数字技术给普通民众带来的受惠与负担基本相称,甚至受惠稍多。这时,监管干预应合理、适度,在允许相关技术应用创造新价值的同时,留意其致害机制,在提供容错空间的基础上,降低其负外部性。智能个人助理应属此类情形。当其能力逐步提升后,治理的关键是保证对称拉齐,即确保普通民众在享受新普及的实惠的同时,获得此前精英已可获得的保护水平。自动驾驶也与此类似,其使普通人可以像精英一样有“专属司机”服务,在路途中解放双眼和双手,让注意力得以放松。但与此同时,自动驾驶系统需接受类似专属司机的行为规范,不仅要安全驾驶,还要像专属司机一样保护客户信息安全。

其次,在帕累托拉齐场景中,数字技术给普通民众明显带来重大福利改善,而新增困扰至少在边际上明显小于新增福利。法律AI应非常接近这种情况。类似地,医学诊疗领域的AI 应用也符合帕累托拉齐的属性。尽管医学诊疗AI毫无疑问仍会有诊疗错误,但对于大多数没有条件轻易获得高水平医疗的普通民众而言,遭遇诊疗错误的概率在医学诊疗AI推广之后与之前相比未必更高,但医疗服务可及性的提升却是实实在在的。在帕累托拉齐场景中,治理者应尤其注意对相关技术发展和应用的支持与呵护,避免受到在绝对意义上强调新技术“局限性”或“风险性”的论调的影响,作出过度限制。即使要应对相关风险,也可选用类似安全港的法律技术,为技术发展提供足够稳定的制度环境。

最后,还需要留意一些未产生拉齐效应的技术变革场景。在这类场景中,新的技术应用给普通人带来的正反两方面影响都非常有限,其实际影响仍集中在社会少数群体——特别是对新技术有较强支付能力的精英阶层。像脑机接口、具身智能乃至基因编辑等,目前都可归于这一类。或许这些未带来拉齐的技术变革只是处于过渡状态,尚未达到均衡。但如暂无法实现普及,法律恐怕只能基于像《民法典》第1009条那样的宽泛条款,确保相关技术进展纳入治理者视野。待受惠和/或困扰侧的拉齐影响逐渐出现苗头,治理者会有更多依据判断其性质,选择干预时机。

五、结语

新技术出现时,人们可能既热情高涨,又忧心忡忡,而社会情绪波动引发的治理压力与公共决策,则有可能与舆论一样易变且不理性。借社会分层这一棱镜,透视相关社会话语与行动,有助于我们识别出真正值得做出法律及其他制度性回应的焦虑。从数字拉齐的视角切入,技术的社会福利影响,特别是分配性影响,可以更为清晰、动态地获得呈现。对法律而言,数字技术演进与应用普及意味着要考虑新的应对规则和治理措施。而在拉齐的动态过程中,由于社会分层结构内不同群体的得失发生流变和轮转,传统上位于法律制度基础层的社会契约问题也有可能会重新浮出水面。我们需要直面的问题将不只是何种技术应用可被接受,而且会包括:什么样的社会应被视为可欲?以平等作为价值基础和规范目标的当代社会中,什么样的差异待遇可以被接受?能带来更多平等赋能的新技术应用,在什么情况下值得冒险去持续追求落地、推广?

如此追问,既可作为理解数字法治领域各类议题出现、变迁的重要线索,也会为制度和治理活动的展开提示方向。实际上,至少在过去数十年中,上述追问一直都在人们心底激荡、在公共话语的深层回响。为了更准确把握不同议题的利害与走向,找到真正值得投入建构性治理资源的领域,我们需要更明确、有意识地在数字法治论域的思考和讨论中,加入类似的事关整体福利与分配的追问。


来源:《中外法学》2026年第1期

文献数据中心|DATA CENTER

© 2009-2026 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc