论文精粹|INFORMATION
宋华琳:法治视野下的人工智能伦理规范建构
管理员 发布时间:2024-09-17 15:41  点击:3826

人工智能系统是用一种或多种人工智能技术和方法开发的软件,针对人类界定的特定一系列目标,可以生成影响其交互环境的内容、预测、建议或决策等输出。伦理风险是指在人与人、人与社会、人与自然、人与自身的伦理关系方面,由于正面或负面影响可能产生不确定事件或条件,尤指其产生的不确定的伦理负效应。在技术、数据、应用和社会层面,都可能引发人工智能伦理风险:技术层面涉及算法及系统安全问题、可解释性问题、算法歧视问题和算法决策问题;数据层面涉及人工智能治理过程中,数据采集、存储、流通和利用行为所蕴含的风险;应用层面的风险体现为人工智能活动中算法的滥用与误用;就社会层面而言,人工智能应用可能会引发不平等,间接引发失业和财富再分配等伦理问题。

2018年10月30日,习近平总书记在主持中共中央政治局第九次集体学习时,指出要“加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”。有必要认真对待和防范人工智能伦理风险,建立保障人工智能健康发展的法律法规和伦理道德框架,制定促进人工智能发展的法律法规和伦理规范。

一、坚持人工智能治理的“伦理先行”

伦理是一个错综复杂的概念,可将其界定为规范个人或群体行为的道德原则。换言之,伦理是一套原则、规则或准则系统,它有助于确定什么是好的或正确的,也可以将伦理视为界定是与非,界定人类或人工智能体的道德义务与责任的学科。法律和伦理在规范价值层次、规范调整范围、规范方式和强制程度等方面都存在很大差异。法律规范是调整有意识行为的行为规范,伦理规范则包含了价值观念和行为准则。法律规范是他律式的,是国家制定的以国家强制力为后盾来保证实施的规范;伦理规范更多是自律式的,是社会形成的,主要依靠社会成员自觉遵守。在人工智能领域,要倡导设计和发展“有道德”的人工智能伦理规范,将“伦理先行”的理念贯穿于人工智能的开发、设计和使用全过程,促进人工智能科技活动与人工智能伦理协调发展、良性互动,确保人工智能安全、可靠、可控,实现负责任的人工智能创新。

人工智能治理中的“伦理先行”也是包容审慎监管的生动体现。包容审慎监管要求规制者对新业态持宽容态度,要鼓励创新、保护创新、宽容创新。《优化营商环境条例》第55条规定:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管。”人工智能业态仍处于快速发展变化过程之中,笔者认为,此时或许很难通过立法来约束权利义务,应坚持“伦理先行”,立足我国自身人工智能发展阶段及社会文化特点,遵循科技创新规律,逐步建立符合我国国情的人工智能伦理体系。应当将伦理约束融入人工智能研究开发过程各环节,在数据收集、存储、使用等环节严格遵守相应的伦理要求,禁止使用违反伦理要求的人工智能技术及应用。人工智能伦理治理的目的并非要为人工智能技术和应用“踩刹车”,其目的也是鼓励创新,是为人工智能科技前沿的探索和创新设定可行性条件。

“伦理先行”的原则蕴含了对伦理规范与法律规范关系的审视。伦理在一定程度上是法律的重要补充,伦理观念支配了法律蕴含的价值观念,影响着法律的性质和方向;伦理规范所蕴含的精神实质和价值取向常常被法律规范所吸收。人工智能伦理规范兴起于法律规范之前,未来的人工智能立法则可将伦理规范中的核心要素纳入法律框架之中。例如,中共中央办公厅、国务院办公厅在2022年印发的《关于加强科技伦理治理的意见》中提出:“推动在科技创新的基础性立法中对科技伦理监管、违规查处等治理工作作出明确规定,在其他相关立法中落实科技伦理要求。”在2023年国家网信办等7部门发布的《生成式人工智能服务管理暂行办法》中,即规定提供和使用生成式人工智能,应遵守社会公德和伦理道德,并写入了坚持社会主义核心价值观、防止歧视、不得实施垄断和不正当竞争行为、尊重他人合法权益、提升服务透明度等要求,这一定程度上体现了人工智能法律规范对伦理规则的吸纳。

二、人工智能伦理规范的制定

在人工智能等新兴风险领域,立法者无法将从事与人工智能风险有关的活动,以及所遵循的安全标准与要求加以详细规定。而且新兴风险也处于动态发展之中,目前我国统一人工智能立法的时机尚不成熟,无法以法律来确立人工智能活动的行为规范。因此,亟待引入人工智能伦理规范。引入伦理规范的考虑是,既引导科技发展的基本方向,又给相关研发机构和企业根据具体的技术场景提供选择的灵活空间。当通过伦理规范的人工智能治理积累充分经验后,可考虑逐步再用更为细节化、精确化的法律来取代人工智能伦理规范。

例如,美国国防部于2020年2月颁布了《人工智能伦理准则》,美国国家情报总监办公室于2020年7月颁布了《情报共同体的人工智能伦理准则》和《情报体系人工智能伦理框架》。欧盟委员会2021年的《人工智能法》第69条第1款规定,欧盟委员会和成员国应鼓励和促进制定行为准则,从而根据技术规范和解决方案,来自愿地将该草案第2章中规定的要求,应用于除高风险人工智能系统之外的人工智能系统,此行为准则可以针对人工智能系统的预期用途,构成了确保系统合规的适宜手段。2019年3月29日,日本内阁通过《以人为中心的人工智能社会原则》,确立了日本人工智能伦理监管的最高准绳,该原则阐述了人工智能开发利用的7项原则。日本经济产业省则于2019年、2021年先后制定了《人工智能·合同利用指针》和《实现人工智能原则的监管指针》,前者用于指导企业在数据利用和人工智能软件开发过程中保护隐私和权利,后者用于指导企业建立人工智能伦理监管制度。

我国人工智能伦理规范的制定某种程度上体现了“自上而下”的特点。在2017年国务院印发的《新一代人工智能发展规划》中,提出要更好发挥政府在伦理法规制定等方面的重要作用,建立保障人工智能健康发展的伦理道德框架。在2022年中共中央办公厅、国务院办公厅印发《关于加强科技伦理治理的意见》时,指出,国家科技伦理委员会各成员单位按照职责分工负责科技伦理规范制定等相关工作,提出要制定包括人工智能等重点领域的科技伦理规范、指南等。在2020年国家标准化管理委员会等五部门颁布的《国家新一代人工智能标准体系建设指南》中,指出要建立人工智能伦理标准,特别是防范人工智能服务冲击传统道德伦理和法律秩序而产生的风险。

2019年6月,中国国家新一代人工智能治理专业委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》,强调了和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作、敏捷治理八项原则。2021年9月,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》,提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养六项基本伦理要求,对人工智能管理、研发、供应、使用等特定活动提出了十八项具体伦理要求。

人工智能这样的新兴技术,具有迭代快、不确定性强、复杂及存在潜在风险等特点。人工智能伦理规范的引入,也是“敏捷治理”的体现。“敏捷治理”是“具有柔韧性、流动性、灵活性或适应性的行动或方法”。其特征可归纳为以下两点。

其一,人工智能伦理规范的形成具有较为广泛的参与度,其需要政府、企业、消费者等利益相关者参与规范形成过程。在人工智能伦理规范的形成过程中,通过引入程序化理念和参与式程序,让不同主体表达各自的观点、偏好和立场,从而形成促进和鼓励组织之间协商和相互学习的机制。以2023年3月颁布的《人工智能伦理治理标准化指南》为例,其由中国电子技术标准化研究院牵头,依托国家人工智能标准化总体组和全国信标委人工智能分技术委员会,组织浙江大学、上海商汤智能科技有限公司等政、产、学、研、用56家单位共同编制完成。

其二,人工智能伦理规范也体现了“反思性法”的典型样态。在动态演进的人工智能治理环境下,可以定期评估人工智能伦理规范的绩效,思考人工智能伦理体系中的各项内容是否需要变更,从而对人工智能伦理规范的原则和内容加以适当修正。相对法律规范而言,伦理规范是“活的文件”(living document),更容易对其进行不断补充和修正,通过及时动态调整治理方式和伦理规范,来快速、灵活应对人工智能创新带来的伦理挑战。

三、人工智能伦理规范应秉承的基本原则

受历史条件和发展阶段限制,人类对人工智能产品的道德风险存在认知的滞后性,往往对人工智能产品缺少完善的伦理控制,同时赋予了这些产品更多的自主决策权,由此催生了更多的伦理道德问题。因此更需采取政府牵头、多元主体参与的形式,共同推动人工智能伦理规范的形成。作为科技伦理规范,人工智能伦理规范也应体现增进人类福祉、促进公平公正、保护隐私安全、保持公开透明、强化问责担当的原则。

(一)增进人类福祉

我国《宪法》中没有明文规定“增进人类福祉”的国家任务,但在宪法序言中,载明要“推动物质文明、政治文明、精神文明、社会文明、生态文明协调发展”。《宪法》第47条规定了公民有进行科学研究的自由,根据该条规定,国家对于从事科学、技术事业的“有益于人民的创造性工作”,有“给以鼓励和帮助”的义务。而人工智能带来社会建设的新机遇,其在教育、医疗、养老、环境保护、城市运行等场景的广泛运用,将提高公共服务精准化水平,全面增进人类福祉。

在2020年11月中央全面依法治国工作会议上,习近平总书记指出,全面依法治国“必须坚持为了人民、依靠人民。要把体现人民利益、反映人民愿望、维护人民权益、增进人民福祉落实到全面依法治国各领域全过程”。人工智能的开发与应用应坚持以人民为中心的发展思想,遵循人类共同价值观,尊重人权和人类根本利益诉求,遵守伦理道德。人工智能的开发和利用应促进人机和谐友好,以建设智能社会促进民生福祉改善,不断增强人民获得感、幸福感。

沿着此论说的脉络,人工智能的开发与利用不得侵害“人的尊严”。人不能被视为客体、被视为工具,尊重“人的尊严”意味着社会成员中的每个个体都会从社会得到最低限度的、有尊严生活的积极保障。我国《宪法》第38条规定:“中华人民共和国公民的人格尊严不受侵犯。”在人工智能开发和利用时,尤其要注意维护儿童、老人等的尊严,避免对儿童的人格尊严造成伤害,避免加剧老年人的无力感和孤独感。

(二)促进公平公正

人工智能应用过程中,可能会存在算法歧视和数据歧视。算法可能会蕴含价值判断,可能会不当地将特定对象、特定项目、特定风险给予不当的权重,乃至有可能植入不当的目的,而且算法很难对规则和数字之外的因素加以充分考量,算法学习的结果也可能存在不可预见性。人工智能应用所利用的数据也可能会缺乏均衡性、代表性,数据自身可能存在偏见,这些都会影响人工智能活动的公平公正性。

在人工智能应用过程中,应坚持促进公平公正的原则,即秉承“相同事物相同对待”的平等理念,对于具有相同重要特征的人或群体,给予相同的分配。其一,当以人工智能方式开展行政执法、司法裁判或配置有限的社会资源时,应考虑受众所开展的活动、所生成的结果、个体的实际需要等因素,尽量让受众“得其应得”。其二,人工智能的应用应具有普惠性和包容性(inclusion),应努力缩减、调和乃至消除“事实上不平等”的状态,让每个人在立足点相同的基础上,平等地享有全社会共享人工智能的机会,促进社会公平正义和机会平等,还要考虑不同年龄、不同文化体系、不同民族的具体需求。其三,要避免在数据获取、算法设计、技术开发、产品研发与应用过程中,产生针对不同或特定群体的歧视与偏见。

(三)保护隐私安全

1保护隐私

隐私是自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息。自然人享有隐私权。任何组织或者个人不得以刺探、侵扰、泄露、公开等方式侵害他人的隐私权。人工智能的利用以算法的深度学习为前提,但深度学习作为数据驱动的技术,需要收集大量的数据,这些数据可能涉及用户兴趣、爱好、个人信息等隐私信息。此外,当利用人工智能技术收集、分析和使用个人数据、信息、言论时,都可能给个人隐私带来危害、威胁和损失。

就隐私保护而言,开展人工智能研发和应用,不得提供侵害个人隐私或者个人信息权益的产品和服务。人工智能服务的提供者应遵守《网络安全法》《数据安全法》《个人信息保护法》等法律、行政法规的有关规定和有关主管部门的相关监管要求。开展人工智能研发和应用,涉及个人信息时,应依照合法、正当、必要和诚信原则处理个人信息。处理个人信息时,应以个人在充分知情的前提下自愿、明确同意为前提。不得损害个人合法数据权益,不得以窃取、篡改、泄露等方式非法收集利用个人信息,不得侵犯个人隐私权。

2保护安全

根据《网络安全法》第76条的规定,网络安全“是指通过采取必要措施,防范对网络的攻击、侵入、干扰、破坏和非法使用以及意外事故,使网络处于稳定可靠运行的状态,以及保障网络数据的完整性、保密性、可用性的能力”。应保障人工智能系统的安全性,算法不被黑客控制,系统和算法不能被黑客攻击或改变。同时还应注重人工智能活动中的人身安全,即确保人工智能技术不会伤害人类。因此,需强化人工智能产品和系统网络安全防护,构建人工智能安全监测预警机制,确保把人工智能发展规制在安全可控范围内。

另外,根据人工智能系统的重要性和危害程度,或可将人工智能系统分为中低风险智能系统、高风险智能系统和超高风险智能系统三级。国家有关主管部门应针对不同人工智能技术特点及其在有关行业和领域的服务应用,完善与创新发展相适应的科学监管方式,制定相应的分类分级监管规则或者指引。例如,针对高风险和超高风险的人工智能应用,可以采用事前评估和风险预警的监管模式;针对中低风险的人工智能应用,则可采用事前披露和事后跟踪的监管模式。这有助于更好地配置有限的监管资源,确保人工智能的安全利用。

(四)保持公开透明

在人工智能伦理领域,人工智能的公开透明是指在不伤害人工智能算法所有者利益的情况下,公开其人工智能系统中使用的源代码和数据,避免“技术黑箱”。例如,《互联网信息服务算法推荐管理规定》第16条规定:“算法推荐服务提供者应当以显著方式告知用户其提供算法推荐服务的情况,并以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等。”可以考虑公开算法流程,公开验证算法时所生成的适当记录,向公众披露如何开发算法,开发算法时有哪些考量。但应当结合具体场景与具体对象,来确定算法的公开程度,有时应公开算法,有时只适合小范围公开,有时甚至不公开算法,不应将算法的公开作为一般原理而机械化地适用。完全公开算法的代码和数据,可能会泄露个人的敏感隐私数据,可能损害人工智能系统设计主体的商业秘密和竞争优势,乃至有可能危及国家安全。

公开透明还体现为人工智能系统的可解释性。《个人信息保护法》第24条第3款规定:“通过自动化决策方式作出对个人权益有重大影响的决定,个人有权要求个人信息处理者予以说明,并有权拒绝个人信息处理者仅通过自动化决策的方式作出决定。”理由说明有助于保障当事人的程序性权利,增强决定的可接受性。因此,当人工智能产品、服务对个人权益有重大影响的,人工智能使用者有权要求提供者对产品、服务决策的过程、方式等作出解释,有权对不合理的解释进行投诉。当人工智能提供者进行解释时,首先是局部的解释,这是对某一特定决定的解释,不需要对整个人工智能系统的活动进行解释。其次是对因果关系的解释,说明存在哪些因素,为何这些因素导出这样的结果。但不必对系统技术细节加以过多解释。

(五)强化问责担当

可问责性(accountability)适用于人工智能活动中的不同主体。可问责性是良好治理的一部分,它与职责担当、透明、可回答性和回应性有关。可问责性是解释性的,有责任对所采取行为加以记述或说明;可问责性也是修正性的,如果出现错误,则应承担纠错的责任。或可将人工智能利用中的可问责性分解为“谁承担责任”“对谁承担责任”“遵循什么样的标准来承担责任”“对何事项”“通过什么程序”“应当产生何种结果”六个要素,通过明确问责主体、问责方式、问责标准、问责范围、问责程序、责任后果,使得能够对人工智能活动网络中的多元主体加以问责,通过无遗漏的问责方式,通过依法设定的程序机制,让问责体系与被问责的人工智能活动相匹配。

人工智能系统是数据集、技术堆栈和复杂人际网络的集合体,因此问责关系经常错综复杂。人工智能技术有可能取代人的劳动,乃至把控人的精神世界,但人工智能是将人的特征、技能予以片段化、分割化和分散化。或可将人工智能视为“特定目的的人”,但它只能在特定领域、特定方面、特定环节发挥作用。人工智能不能完全取代人,更不能由此弱化人的主体性地位。因此,在人工智能利用过程中,应坚持人类是最终责任主体,明确利益相关者的责任,全面增强责任意识,在人工智能全生命周期各环节自省自律,建立人工智能问责机制,不回避责任审查,不逃避应负责任。

来源:本文转自《数字法治》2023年第6期(本文为文章摘录版,如需引用,参阅原文)

文献数据中心|DATA CENTER

© 2009-2024 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc