论文精粹|INFORMATION
冯洁:完善人工智能国家安全风险规制的法治化路径
管理员 发布时间:2022-11-14 10:25  点击:165

人工智能国家安全是当代总体国家安全的重要组成部分,目前,无论是制度上还是学理上都亟须对人工智能国家安全风险法治体系进行整体规划。为此,需要在人工智能领域安全风险规制的人类共同价值目标基础上,构建出具有中国特色的人工智能国家安全法治体系。

“人工智能国家安全”的法学界定

“国家安全”的现代用法最早出现在美国作家李普曼1943年出版的著作《美国外交政策》中。1947年,美国颁布了世界上第一部《国家安全法》,并组建了“国家安全委员会”。我国也于2015年通过了新的《国家安全法》。总的来说,传统法学意义上的国家安全是指一国法律确认和保护的国家利益免遭内部和外部的各种威胁和危险的客观状态。内部威胁来自于威胁国家安全的本国公民和组织,外部威胁来自于威胁国家安全的其他国家或组织。传统国家安全是一种物理安全意义上的客观安全,主要包括军事安全和政治安全。

与传统法学语境相比,人工智能时代的国家安全具有两大特点。一是人工智能时代的国家安全是一种security,而不仅仅是safety。“safety”重在人身安全和财产安全,如阿西莫夫的机器人三原则,旨在确保机器人不会伤害人类;而“security”则意指政治、经济、文化、生态等方面的总体安全,而非对国家的财产和国土这类物理客体的威胁,如数据跨境流动给国家安全带来的挑战。二是人工智能时代的国家安全风险处于三方结构而非两方结构之中。传统国家安全处于“国家—个人”或“国家—国家”的两方结构之中,对于国家安全的威胁来自个人或其他国家。但在人工智能时代,在这两方结构中又加入了“人工智能”这一方。人工智能既可能被个人或其他国家有意利用来威胁国家安全,也可以由于技术失控或误用、滥用而产生溢出风险,额外给国家安全带来威胁。

总的来说,在法学上,人工智能时代的国家安全指的是国家利益免遭因人工智能的误用、滥用以及失控所造成之风险的总体安全。这种安全从外延上看遍及政治安全、经济安全、军事安全、文化安全、社会安全等各方面,从类别上看统摄内部安全和外部安全、传统安全与非传统安全。其要求有三:一是通过法律降低人工智能不成熟性以及恶意应用给国家社会带来的安全风险;二是通过法律推动人工智能在网络安全和公共安全领域深度应用;三是构建人工智能安全的法治体系,保障人工智能国家安全稳步发展。

人工智能国家安全风险规制法治化的理论基础

人工智能技术与国家安全之间存在一种结构性互动的关系。一方面,人工智能技术能够基于进化赋能的实践应用,从传统安全、非传统安全以及两者间的重叠领域,为国家安全提供更为有效的维护和保障机制。另一方面,人工智能技术的应用也存在着超出预期设想的可能性,存在因技术滥用而导致的外溢风险与因技术自身缺陷而产生的内生风险。为应对这两类风险,需要首先夯实人工智能国家安全风险规制法治化的理论基础:一是风险社会的法治原理,二是人工智能技术创新模式的变迁原理。

人工智能安全风险规制是风险社会治理的组成部分。与传统社会模式不同,风险社会中最为稀缺的价值需求就是对于确定性的追求,法律作为一种确定性的价值在风险社会的运作中充当着最佳的调控模式。同时,风险社会的治理也提出了不同于传统法治的新要求:一是法律要在稳定性与灵活性之间保持平衡。人工智能时代带来了“软法革命”,制定具有灵活性和弹性化的法律规范可能给重大风险的应急和处理带来更为可期的良好效果。二是需要法律将规则确定性与原则指引性相结合。在风险社会,新技术的发展前景尚不完全确定,人工智能带来的社会关系变化的结果尚未完全固定,应增强法律的原则指引性。相反,一旦当相关领域的社会关系固化下来,或某些做法被证明行之有效、在相当长的时间内可以稳定不变,就可以上升为具体明确的规则。三是要求倚重事先预防的方式来应对风险。科技风险会引发大规模的、人为的灾难性后果,预防原则应当成为政府以法律的手段因应科技风险的主要原则。

人工智能安全风险规制法治化的思路也与人工智能技术创新模式的变迁休戚相关。半个多世纪以来,西方资本主义法律体系主要反映的是熊彼特技术创新模式。熊彼特模式本质上是一种效益创新模式,其核心内涵是市场要素的商业化组合。它有四个主要特性:有足够的商业利益、满足用户需求、有税收、高效率。效益创新模式不要求产品满足功能性因素之外的伦理要求,因此出现伦理风险不可避免。显而易见,这种创新模式已不再适合于风险社会中的人工智能技术的应用,尤其不适合于与国家安全有关的人工智能技术的应用。人工智能时代法律所保护的创新模式应当从效益创新模式升级为公义创新模式。后一种模式的主要特点在于:第一,与效益创新主要追求经济效益的显著增长不同,公义创新追求经济效益和社会效益的协同提升。第二,与效益创新将目标对置于满足用户需求的具体产品/服务不同,公义创新的目标对象是符合社会发展需要的人工/人造系统。第三,与效益创新延续、强化工业文明传统不同,公义创新探索更具包容性的文明路径。在这种新模式下,法律对人的关注将得到根本性加强,对人和机器的认识将大幅度更新,人与机器的关系在法律上将得到重新定义。法律将在福祉原则的指导下,推动人、机器和环境的更具包容性的一体化发展。

人工智能国家安全风险规制的法治框架

人工智能时代的法律运作理念将由“如何修复和恢复社会”转向“如何规训和塑造社会”。人工智能国家安全风险规制应采取一种重在预防、重在塑造相关主体行为逻辑、重在风险规制的模式。基于这一模式,应当构建以法律规制为核心、多种规范体系和治理机制协力的人工智能国家安全风险规制法治体系。具体而言,这一体系应由三重框架组成。

一是价值—规范框架,它从高到低由三个层次构成:顶层是“基本原则”,以“国民福祉原则”为核心,以“可信可控原则”和“人类监管原则”为支撑;中层是“一般伦理准则”,包括合法合规、风险防范、安全透明、敏捷治理、稳健性(鲁棒性)、保密性、完整性、可用性、公平性和问责性等;底层是“具体实施细则”,包括产品标准(企业标准)、技术标准(国际标准/国家标准)、行业规范、产业政策、法律法规和伦理守则等多方面的具体要求和规范。

二是区分和评估框架,包括人工智能国家安全风险的区分监管框架与人工智能国家安全风险的评估框架标准。前者又包括三个方面:首先是人工智能国家安全风险的分类,包括网络国家安全风险、数据国家安全风险和算法国家安全风险;其次是人工智能国家安全风险的分级,包括人工智能系统应用场景的国家安全风险分级,以及网络国家安全风险分级和数据国家安全风险分级;最后是人工智能国家安全风险的分阶段监管,包括人工智能系统开发过程中、投入使用前、使用过程中的风险监管以及系统漏洞的应对与事故处置。后者则包含人工智能国家安全风险评估的总体要求和可行的评估基本清单。

三是治理体系框架,包括人工智能国家安全风险的治理体制、治理措施和治理机制。人工智能国家安全风险的治理体制包括决策和议事协调机构、中央和省级地方两级的审查和监管机构(包括规范化和标准化机构),以及负有安全风险审查和报告义务的创新主体(企业、科研机构)。治理措施包括技术方法与非技术方法两类,治理机制则包含被动防御机制、主动防御机制、情报信息机制、反制进攻机制等层级。

来源:《中国社会科学报》

文献数据中心|DATA CENTER

© 2009-2022 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc