近年来,情感计算技术越来越多地走进公众的日常生活。商店使用情感计算来感知客户的情绪与兴趣、学校使用情感计算衡量学生在课堂的快乐程度与参与程度,雇主使用情感计算评估求职者的情绪反应并监控员工在工作时的面部表情。随着情感计算应用的日益扩展,公众对情感计算的态度开始悄然转变。大致以2019年为转折点,域外在伦理、技术和法律层面对情感计算的批评以及要求强化治理的呼声日益高涨。同年召开的情感计算会议ACII首次增加了关于情感计算技术滥用的专题研讨。
我国是世界范围内情感计算技术最为主要的研发与应用国之一。人脸识别、语音识别等感知智能技术的大面积应用为情感计算技术在近年来的迅速发展铺平了道路。目前,我国情感计算领域的发明专利申请数接近1200项,其中67%是在2018年之后申请,仅2020年的申请量就接近总量的1/4。
一、情感计算的技术逻辑
(一)情感计算的概念厘清
由于技术发展路径的多元属性,“情感计算”及其相关概念层出不穷,并在内涵与外延上具有不确定性。除了情感计算之外,与之密切相关的概念还有情绪识别、情绪智能、情感识别等。与此同时,在诸多文献中,“情感计算”还广泛地与人脸识别、语音识别、人工智能等各类技术交叉混用。对于公众而言,可能会直接产生如下疑问:情感计算都是人工智能技术吗?情感计算中的“情感”与情绪识别中的“情绪”具有同一指涉性吗?“计算”和“识别”是不同的过程亦或是同一行为的不同表达?人脸识别、语音识别与情感计算之间是何种技术逻辑关系?因此,在展开正式论证之前,有必要对本文“情感计算”指涉的内容作一个必要的交待,以便不同背景的参与者能够在同一基础上展开讨论。
一般认为,情感计算由罗莎琳德·皮卡德在1997年正式提出,意指“与情绪或其他情感现象有关的、产生于或有意影响情绪或其他情感现象的计算”。
(二)情感计算的技术路径
情感计算在技术逻辑上与人工智能技术紧密绑定,大致可以分为感知、识别、模拟、影响四个环节。
当然,“识别”只是初级的应用。按照皮卡德对“情感计算”的原初定义,该技术实际上分为三类:“与情感相关的计算”“产生于情感的计算”以及“有意影响情感的计算”。换言之,该类技术的终极目标是在“识别”基础之上使计算机具备“模拟”自然人情绪的能力,并且能够根据不同情境采取相应策略来“影响”自然人的情绪。也就是让机器具备情感智能,能够以最佳的方式识别和调节(自己或他人)情感的能力。
二、情感计算的应用观察
情感计算应用的实质是通过感知、识别、模仿和影响人们的情感状态来更好地作出决策、提供服务、提升幸福感。
(一)医疗领域的情感计算
许多心理和生理状况,包括自闭、抑郁和中风,都会影响理解、控制或交流情感的能力。情感计算已被用于评估和治疗各种疾病,并改善与情感有关的交流。一家名为Affectiva的公司开发了一款“谷歌眼镜”式的设备,可以帮助自闭症患者解读与他们互动的其他人的社交和情感线索。
(二)教育领域的情感计算
在教育领域,利用情感计算技术,计算机可以通过面部表情的识别来判断学习者的学习状态。与此同时,该技术还可以让教师了解学生的内心感受,从而制定更具个性化的教学方案。随着在线教学的日益扩展,情感计算被认为可以提升师生互动质量,改善因为缺乏传统课堂学习氛围而导致的厌学情绪。
(三)就业领域的情感计算
就业领域情感识别的使用也出现了激增,在求职者或员工不知情的情况下进行工作能力判断。Hire Vue和VCV等公司提出对求职者进行“勇气”等品质的筛选,并追踪他们微笑的频率。
(四)商业领域的情感计算
商业领域的情感计算应用旨在根据情感的识别为顾客提供更为优质的服务。2019年8月,亚马逊宣称其Rekognition面部识别软件可以评估包括恐惧在内的8种情绪。零售是该软件潜在的应用场景,商店可以通过该软件分析购物者的实时图像,以检测情感,进而有针对性地提供服务。
(五)执法领域的情感计算
情感计算也开始应用于边境检查、案件侦查等执法领域,利用对不特定公众情绪的识别,发现异常情况、锁定嫌疑人。例如,美国和英国的警察正在使用检测软件Converus,该软件通过检查眼球运动和瞳孔大小的变化来识别潜在的欺骗行为。
三、情感计算应用的多维困境
(一)情感计算应用的法律问题
情感计算与人脸识别等知名的生物识别应用不同,后者旨在识别个人,而前者则是在识别个人的基础之上进一步推断一个人的内在情绪。因此,情感计算的应用会对公民基本权利造成不成比例的风险。
首先,由于与人脸识别等感知智能技术在逻辑上具有前后承接性,情感计算技术的应用将直接与个人信息的诸多权能形成冲突。
其次,情感计算的应用还可能对个人隐私权形成直接的侵犯。众所周知,情感是一种个人的内在感受。对于一般公众而言,控制情绪使其不轻易呈现是重要的社会规则,尤其是内疚、沮丧、恐惧、焦虑等负面情绪。在特定的情形下,人可能需要呈现一种虚假的情绪,典型的如“善意的谎言”。同时,情感状态的完全暴露还可能会让一个人更容易受到伤害。因此,情感信息尤其是个人不愿意外露的情感带有敏感和私密的性质。按照我国民法典第1032条第2款规定,隐私是自然人的私人生活安宁和不愿为他人知晓的私密空间、私密活动、私密信息。公众不愿意外露的情感状态就属于不愿意为他人知晓的私密信息。情感计算技术的引入具有极强的“侵入性”,大大超出了公众在公开场合期望保持个人情感隐私的预期。尽管基于明显表情推断情绪可能不足以上升到“窥探”隐私的程度,但微表情或者因刺激而短暂出现的面部表情则是非自愿的情感泄露(暴露真实的情感),
再次,情感计算的应用还可能间接地对人身自由产生负面影响。民法典第109条规定,自然人的人身自由受法律保护。人身自由包括身体自由和精神自由。后者是指自然人按照自己的意志,在法律规定的范围内自主思维的权利。情感计算应用的重要假设是可以推断内心的真实情感,并应当以此为基础作出决策。人们可能会为了避免让自己的情感被定义为“危险”“可疑”“注意力不集中”而被迫作出符合“良好”情感标签的生理表达。如果情感计算能够准确识别并呈现每个人实时的情绪,那将很可能给公众带来不必要的压力,让人无法自由地思想,并处于时刻在监控之下的恐惧之中。
最后,情感计算的部分应用还与人格尊严、平等保护等形成冲突。本文第二部分提及的在智慧招聘和智慧课堂推行过程中,通过情感计算,将受聘人群划分为“高情绪控制力”和“低情绪控制力”,把学生区分为“精力集中”“精力不集中”,这种带有价值导向的分类无疑对人格尊严形成侵犯。更为重要的是,相关情感计算应用实质上需要根据计算结果对不同分类的人群采取差异化、个性化的策略。考虑到后文将会详细论及的情感计算的诸多技术瓶颈,此种差异化对待的理由正当性存疑,可能对特定人群形成歧视。
(二)情感计算应用的伦理冲突
情感状态与人类价值和情绪紧密相连,尤其在道德判断中至关重要。此外,情感在人类生活中起着核心作用,它在人际关系、形成群体并在决策和推理中发挥重要作用。它是人类与社会互动的基本方式之一。
其一,基础伦理学高度重视人类情感,影响情感的情感计算技术被认为会影响人的道德标准及自由意志。在经验主义伦理学中,情感被视为道德判断的根源。大卫·休谟和亚当·斯密等人认为,所谓的错事,就是一种我们“道德情感”无法接受的状况;在功利主义伦理学的视野中,基本的道德义务是使幸福感最大化。换言之,情感是我们成为道德人的核心。在上述将情感视作道德基石的哲学流派看来,情感计算应用在影响了情感的同时也就影响了人类的道德标准。与基于情感的道德理论相比,康德认为道德的基石是根据理智原则来行使自由意志。情感计算因为可能影响情感进而影响自由意志,因此具有深远的道德意义。
其二,实用伦理学对“善意”“不作恶”“诚实守信”的基本要求也可能与情感计算的应用形成潜在冲突。与基础伦理学相比,实用伦理学更接近常识系统,也更容易促进共识。实用伦理学中的关键原则,诸如“忠信/诚实守信”“不作恶”“善意”“己所不欲,勿施于人”同样成为批判情感计算“不道德”的重要工具。在公众视角中,情感计算可以通过远程方式“窥探”公众的情绪并加以运用。
(三)情感计算应用的技术瓶颈
情感计算技术的底层依据来自“基本情感理论”(Basic Emotion Theory,BET),该理论由心理学家保罗·埃克曼(Paul Ekman)在1970年提出,认为人们可以从面部表情中可靠地辨别出情绪状态,并且此种表情与情绪的关联具有跨文化上的普遍性。
第一,外在表达与内在情感之间的关联存在不确定性。情感计算在技术逻辑上的根本问题在于它是基于反向推理,即一个特定的生理信息被用来表示一种情绪体验。从计算的角度来看,所有这些来源都是生理信号,具有分析和解释上的共同困难。一方面,相同的生理信息可能表达了不止一种情绪,而实际上理解情绪需要更多的情境细节支撑。有实证研究揭示,所有六种情绪平均上只与面部表情有微弱的联系。
第二,外在表达与情感之间的关联在世界范围内存在差异性。有学者回顾了上千项关于情绪表达的研究后发现,人们在不同文化、不同情况下,甚至在同一情况下,在沟通他们的情绪状态时,存在着大量的差异。因此,无论计算算法多么复杂,利用这项技术来得出情感结论还为时过早。
第三,该技术在应用结果上具有不可靠性。正是因为外在表达与内在情感之间的不确定性、多样性、数据标注的主观性,这使得现阶段情感计算技术在准确性上难以充分保障。例如,Pro Publica报道称,美国部分学校、监狱、银行和医院安装了由Sound Intelligence公司开发的情感计算应用软件,旨在暴力爆发前检测压力和攻击性。但“攻击性检测器/主动探测器”并不可靠,它可能将咳嗽这样的粗糙、高音调的声音误判为攻击性。
四、情感计算应用的法律规制
当前,我国对于情感计算技术的法律规制体系尚未构建。一方面,这为该技术的迅猛发展提供了宽松的制度环境;另一方面也为技术应用引发的多维风险埋下隐患。情感计算技术的应用需要有公众信任作为支撑,其面临的伦理、法律和技术困境无疑会侵蚀公众的信任度。因此,从推动情感计算技术良性发展的视角来看,势必需要对其应用进行合理的法律规制,以应对法律、伦理、技术三个维度的困境。具体而言,就是以“轻推”为限度设定情感计算应用的底线。在此基础上,对符合底线要求的应用再根据风险等级进行差异化的规制。
(一)以“轻推”为限度的底线规制
正如本文第三部分论及的那样,基础伦理学与实用伦理学均高度重视情感,将其视作影响道德判断和人的主体性的重要因素。因此,人们应当尊重他人控制其情绪状态的自主权;获得有关个人情感状态信息施加了一种责任,即不得滥用该信息并利用该人的脆弱性。
“轻推”对应的英文“nudge”的原始含义是指轻轻推某人,尤指用肘轻轻推某人,以引起他们的注意。诺贝尔经济学奖获得者理查德·泰勒和美国最伟大的法学家之一卡斯·桑斯坦在2008年共同提出了“轻推”的理论。它是指通过正向强化和间接建议,影响群体或个人的行为和决策,但个人仍然有选择自由。众所周知,个人并非绝对意义上的理性经济人,会受到各种偏见的影响,有时候作出的决策往往是一种本能反应,而人往往对这种本能反应过于自信,引发大量的错误决策,此时就必须“轻推一把”,让人意识到错误并走上正轨。关于何为“轻推”,理查德·泰勒和卡斯·桑斯坦将其概括为“自由主义的温和专制主义”。具体而言,私人和公共选择设计者所作的并不仅仅是要极力追踪或者实现人们所期待的选择,他们更加可以追求的是通过改变人们的行为方式从而使他们生活得更好。他们使用的是一种助推。“轻推”指的是这种选择体系的任何一方面,都不通过强制的方式,而是以一种预言方式去改变人们的选择或者改变他们的经济动机及行为。
按照上述理论框架,应通过法律明确规范情感计算技术对人类情感的干预限度和方式:(1)情感计算应用中施加的影响情感措施只能以“轻推”为限度,不得直接“操纵/控制”情感。简言之,“轻推而不控制”是法律规制的核心内容。那种通过脑机接口(BCI)的方式直接作用于神经进而影响情感的方案与“轻推”的法律要求根本冲突。
(二)以风险为基础的差异规制
与绝大多数科学技术相同,情感计算技术是一把“双刃剑”。从正面来看,情感计算智能技术的应用能够有助于更好地理解和控制情绪与情感状态,可以改善生活质量、挽救生命、提高人机交互体验等;从负面来看,情感计算则可能对个人权利造成诸多侵害。
表1 情感计算应用的风险类型、风险表征与规制方式 下载原表
所谓的“不可接受的风险”,是指触碰伦理禁区和价值底线的情感计算应用。根据该技术现有的发展态势来看,主要有以下三种情形:(1)试图直接操纵、控制他人情绪的情感计算应用。在底线规制的构建中笔者已经指出,按照道德哲学的基本要求,情感的自主性具有极高的伦理地位,因此干预情感应该以“轻推”为限度。超越该限度直接控制情感的做法既属于伦理禁区也属于法律禁区。(2)追求不正当目的的情感计算应用。比如旨在激起特定人群积极情绪(暴力、好战)的应用,又比如雇主通过情感计算技术来控制雇员情绪,使其总是处于积极工作的情绪之中。(3)滥用技术,利用人性的弱点,比如未成年人、精神病人在年龄、身体或精神上的脆弱性从而扭曲个人情感的情感计算应用。
所谓“高风险”,是指那种可能严重影响个人权利,尤其是教育、健康、安全等基本权利的情感计算应用。这里的“严重影响”,是指基于情感计算的结果直接决定个人教育、社会保障、医疗、就业、安全、健康等基本权利的有无。也就是说,情感计算结论成为“剥夺”个人基本权利的直接依据。具体而言,此类应用表现为公私机构利用情感计算技术对个人进行评估,在此基础上形成评分或者分类标签,进而决定特定个人能否进入教育机构、享受特定的保险待遇、获得特定的工作机会等。按照情感计算技术发展的趋势来看,主要有以下四种情形:(1)在教育系统中使用情感计算技术,用于确定进入教育机构的资格,或将对特定人群情绪控制能力的评估作为接受教育的一部分或者前提;(2)在就业领域使用情感计算技术,用于人员的招募和甄选,决定晋升或解雇;(3)在公共服务领域使用情感计算技术决定个人是否获得和享受某些必不可少的公共服务,如获得公租房、电力、电信服务等;(4)在执法领域使用情感计算技术判断特定公众的危险程度或供述的可信度,以决定是否采用非羁押措施、缓刑等。前文提及的基于情感计算技术在就业、执法等领域应用中就有此类情形。此类应用可能会对个人的教育、职业等权利产生极为深刻和广泛的影响。加之情感计算在技术上的不稳定性,对其应用还可能导致特定群体被排斥在享受特定基本权利之外。这实际上侵犯了尊严和不歧视的平等与正义价值观,导致特定群体在整个社会交往环境中处于特别被动的地位,并将此种歧视以技术形式固化。对于这类“高风险”应用需要严格限制,原则上被禁止,只有公共服务机构基于公共利益而展开,且需要配合以全流程的监管措施。
所谓的“中风险”,是指那种中度影响个人权利的情感计算应用。具体而言,就是对个人权利产生实质影响,但并不决定特定权利有无的状态。尽管如此,考虑到对个人权利影响的实质性以及现有技术的不稳定性,仍然需要将他们归并为“中风险”应用。比如,智慧教育中基于学生的情绪识别而采用差异化的教学策略虽然影响了不同学生的受教育权,但却并未作为教育的准入资格条件而存在。对于“中风险”的情感智能技术,原则上可以应用,但是要构建一套全生命周期的监管措施。除了符合已有法律规范的相关要求之外,笔者认为,可以参考《欧盟人工智能协调规则提案》的相关规制体系并结合我国的实践确定如下流程监管措施:(1)风险管理机制:构建完备的情感计算应用风险评估系统,从伦理、法律和技术三个维度综合审查已经发生或者可能发生的各类风险,并对各类风险发生的应对措施作提前预案。同时,风险评估要在全生命周期内不断迭代与更新。(2)数据治理机制:构建数据获取、标注、训练的治理机制,将风险和歧视的结果降至最低。比如,在情绪识别的样本选择时需要考虑不同性别的人群构成,保障训练样本的代表性;在数据标注时需要统一培训,按照一致的标准。(3)技术保障机制:情感计算应用的开发者应当保障技术具有实现开发目的的准确性、稳定性与安全性。要引入独立第三方对各项技术的性能指标进行充分的测试与验证。(4)流程备份机制:对应用的全过程进行记录以保证可追溯性。(5)信息透明机制:使用者应当向用户提供清晰、充分的信息,包括技术的现有准确性、安全性等内容都需要在使用说明中明确声明。(6)信息备案机制:将应用的相关信息提交相关主管机构备案。在应用发展过程中,要及时更新。
所谓的“低风险”,是指轻度影响或者不影响个人权利的情感计算应用。比如,在情感聊天系统中,根据对用户情绪的识别自动调整聊天方式。对于低风险的应用,法律在原则上不施加明显的规制,只是作出最基础的透明义务要求,比如明确告知用户正在与具备情感识别功能的系统交互。就好比电话中涉及录音时会提醒“本次通话可能被录音”一样,在涉及情感计算时需要提示“你的情绪可能被检测”。
结语
我国对于技术规制的路径通常是采用回应型的立法,即在技术发展已经无处不在并已经暴露现实风险时再考虑规制。在此之前,给予特定技术以充分的发展空间。对于即将迅猛发展且可能比人脸识别更具侵入性的情感计算技术而言,对其规制可能需要采取更具前瞻性的“先发制人”立法。尤其在“不可接受风险”的应用已经处于研发状态、“高风险应用”已然现实存在的背景下,对于情感计算应用的有效规制就显得尤为必要。唯有如此,方能有效避免对公民个人权利带来不成比例的损害。当然,本文只是对情感计算的法律规制提出了初步的方案。对于情感计算与个人信息保护规范之间的衔接、全生命周期监管方案还有待在后续研究中进一步细化。
(为方便阅读,省略注释。如需引用,参阅原文)
来源:《东方法学》 2021,(04),49-60