司法文明协同创新中心|教育部社会科学委员会法学学部|全国法学理论博士生论坛|图书网|视频网|法理学国家级精品课程|ENGLISH
您的位置>>首页>> 论文精粹 > 部门法哲学 > 阅读正文

论文精粹

刘宪权:人工智能时代机器人行为道德伦理与刑法规制

管理员 发表于: 2018-09-17 10:30  点击:108

  【摘要】 机器人伦理是设定机器人法律制度的前提与基础,本质上服务于人类利益。机器人伦理主要针对具有“独立意志”的智能机器人,具体包括机器人道德、机器人社会关系等。具体设计机器人法律制度时,应体现机器人伦理的基本内容,秉持承认与限制的基本原则:一是承认机器人的限制性主体地位;二是承认机器人权利,此种承认具有功利主义色彩,本质上是为了更好地实现人类利益。智能机器人的行为应受刑法规制,智能机器人的权益也应受到刑法保护。刑法视野下的智能机器人具有犯罪主体地位,能够实施绝大部分犯罪并承担相应刑事责任;与此同时,智能机器人应享有财产权等权利,侵害机器人权利的行为可能构成相应犯罪。

   【中文关键词】 人工智能;智能机器人;机器人道德伦理;刑法规制;刑法保护

   

   人工智能时代已悄然来临,人工智能的迅速发展正深刻地改变人类社会生活、改变世界,并影响着国家的发展战略。2017年7月8日,国务院《新一代人工智能发展规划》将发展人工智能作为我国抢抓战略机遇、构筑先发优势、加快建设创新型国家和世界科技强国的重要国家战略。规划指出,人工智能成为国际竞争的新焦点,人工智能是引领未来的战略性技术,世界主要发达国家把发展人工智能作为提升国家竞争力、维护国家安全的重大战略;人工智能成为经济发展的新引擎,其将重构生产、分配、交换、消费等经济活动各环节,形成从宏观到微观各领域的智能化新需求,催生新技术、新产品、新产业、新业态、新模式,引发经济结构重大变革。在此重大社会变革之下,作为上层建筑而存在的伦理、法律、政策也应当实现必要的调整与升级,按照规划所提出的目标,实行“三步走”战略:第一步,到2020年,“部分领域的人工智能伦理规范和政策法规初步建立”;第二步,到2025年,“初步建立人工智能法律法规、伦理规范和政策体系”;第三步,到2030年,“建成更加完善的人工智能法律法规、伦理规范和政策体系”。然而,我国目前尚无与人工智能紧密相关的伦理规范与政策法规,与人工智能应用相关的民事与刑事责任确认等法律问题依然主要在传统法律框架内解决,并且迄今为止围绕该问题所展开的研究还极为匮乏。如果说在民事领域有限承认智能机器人的民事权利能力已经成为现阶段部分民法学者的呼声,那么在刑事领域有限承认智能机器人刑事责任能力的主张或讨论则显得极为罕见。而事实上,人工智能时代注定无法回避后一问题。

   时下,因人工智能与信息科技的进一步发展与提升,智能机器人愈加接近于”人”。除在医疗、交通、灾害应急处理等社会领域已经出现“人机合作”外,在某些特定领域(如知识产权领域),智能机器人甚至能独立创作出“作品”,其主体性、人格性、创造性特征已初露端倪,并将会随着人工智能技术的进一步提升而愈发凸显。既然智能机器人愈加接近于人,并能够逐步与人合作或完全替代人从事工作,那么以下这些问题便应当得到理论上的回答:智能机器人与人的区别是什么?智能机器人与人的法律地位之间是否有着不可逾越的鸿沟?是否应当赋予智能机器人法律人格?当智能机器人像人一样实施了危害社会的行为时,仅仅以“人”为主体而构筑的现行法律体系是否“过时”,是否仍然能够应对人工智能时代涌现的新情况、新问题?

   以上并不是单纯的法律问题,同时也是深层次的伦理问题。康德将法与伦理相区别,法律与伦理之间的关系是哲学领域经久不衰的话题。目前已达成共识的是,伦理与法律作为两种社会规范分别独立存在,法律是外在的、强制性的秩序,伦理是内在的、求诸于个人内心的力量,二者刚柔并济、相辅相成地调整着社会秩序。正是基于法律与伦理之间合作共生的关系,《新一代人工智能发展规划》将法律法规、伦理规范、政策体系并列,共同作为人工智能时代社会治理的战略目标。法律与伦理同为社会规范,都以社会为其发生的基础,“法和伦理适应于社会,发生于社会……在没有社会共同生活的地方,法和伦理虽然在观念上可能,但是不具有现实性。法与伦理在它们同来之于社会这一点上,两者并不矛盾”。[1]伦理与法律均为规范,规范是社会的产物,同时也反过来助推社会的发展,一方面,人工智能时代与社会是人工智能伦理规范与法律法规的发生基础与现实来源,另一方面,人工智能伦理规范与法律法规的快速建立与完善,也是人工智能加速发展的必然要求与规范保障。

   值得指出的是,《新一代人工智能发展规划》在“三步走”战略目标中对人工智能时代的伦理规范、法律法规、政策体系分别作了不同顺序的排位。第一步,到2020年“部分领域的人工智能伦理规范和政策法规初步建立”,其将“伦理规范”置于“政策法规”之前,且并未使用“政策体系”、“法律法规”的表述;第二步与第三步,分别为到2025年“初步建立人工智能法律法规、伦理规范和政策体系”、到2030年“建成更加完善的人工智能法律法规、伦理规范和政策体系”,不难发现,此时其将“伦理规范”的位置略微后移,置于“法律法规”之后、“政策体系”之前。排位上的前后差别恐怕并非偶然无意之举,而自有其深意。在人工智能时代初期,与人工智能紧密相关的法律法规一片荒芜,初创法律法规须以伦理为土壤,只有解决了新时代的道德、伦理等基本问题,才有可能制定出符合时代要求与顺应人们内心准则的法律。因此,初创人工智能法律法规应当遵循从伦理走向规范的路径。而当人工智能时代深化发展到一定的程度,人工智能法律法规已渐成体系之时,伦理势必要谢幕于历史的主场,退居于次要地位,更多表现为对法律的辅助。伦理与法律在不同历史阶段的角色与彼此之间的互动规律,反映着人类社会规范的产生过程,我们在构建人工智能法律体系时显然不能无视这一过程。在机器人广泛介入人类生活的人工智能时代,道德、伦理问题必须首先得到充分的讨论。故本文主要通过分析智能机器人的道德、伦理,探究机器人的法律地位和法律权利,并在此基础上解析智能机器人在刑法体系中的地位以及对应的犯罪范围与受保护范围。

   

一、机器人道德、伦理

   

   虽然人工智能的概念首次提出于1956年的达特茅斯会议上,但从一项技术、产品演进为一个时代并切实影响着人们的生活却是近年来才发生的事情。人们将人工智能称为一个“时代”不仅仅是因为人工智能技术的提升与应用改变了人们社会生活的方方面面,更在于人工智能呈现出了以往从未有过的特征,即主体性、人格性、创造性等。智能机器人在代替人类从事工作的过程中,已慢慢呈现出摆脱工具地位,渐获主体地位的趋势;在深度学习、神经网络原理与大数据技术的支持下,智能机器人已可独立创作“作品”,符合独创性的特征;在某些发达国家,智能机器人甚至已经被赋予“工人”地位或给予“户籍”。上述种种现象似乎已经与既有的人类伦理产生冲突,使得我们必须重新审视机器人本身以及人类与机器人之间的关系。纯粹的机器人工具主义是否会遭到时代与世界的抛弃,最终在历史舞台上离场,取而代之的是经过时代更新的伦理?机器人的伦理与规范问题必将成为人工智能时代社会科学研究的重要课题。人工智能的法律制度安排离不开伦理基础与价值取向,机器人伦理是研究机器人规范、机器人刑法的重要前提。对机器人伦理的思考应具有一定的前瞻性与超越性,并着重于控制、预防机器人发展、应用过程中的风险,使机器人在发挥有益于人类社会的价值的同时不至于侵害人类的基本利益。笔者认为,机器人伦理涉及文化、意识的碰撞,主要表现为机器人道德、机器人与自然人的关系等问题。

   (一)机器人道德应当被赋予和认可

   机器人道德是具有自主意识的智能机器人判断某种行为正当与否的基本标准与准则。机器人道德是智能机器人的必备内容,是人类社会对智能机器人融入社会生活最低限度的要求。道德是后天养成的,而非先天即有,这也意味着道德并非专属于自然人,智能机器人也可通过后天养成道德。机器人需要道德并非一个伪命题,尽管目前的机器人尚未有道德,但这并不意味着未来的智能机器人不需要道德。机器人需不需要道德与如何形成机器人道德是两个不同层面的问题。我们不能因为将道德“加载”于机器人存在技术困境,便简单地认为机器人无需道德。事实上,智能机器人大面积应用于社会各领域,必然会涉及机器人道德问题。例如,杀伤性军用机器人如何区分平民、伤患、投降者和恐怖分子,在同时存在大量恐怖分子和些许人质的情况下是否选择攻击等。又如,家庭服务型机器人如何在照顾家庭成员的过程中,区分伤害与救助。再如,医疗型机器人在手术过程中对病人造成的“伤害”或者“治疗”,何时、何种程度才能被认为是不道德的,甚至在传统的“电车难题”、“洞穴奇案”伦理困境中,机器人又会如何作出选择?以无人驾驶机器人道德实验的“隧道问题”为例,当你乘坐的汽车高速行驶至隧道口,一个儿童冒了出来,走到了路中间,正好挡住了隧道的入口,此时通过刹车来避免事故发生已为时晚矣。无人驾驶机器人只有两个选择:一是直接冲过去,但这会导致儿童死亡;二是快速转向撞向隧道的任意一边,但这会让你丧生。很显然,这一道德困境即便人类也没有“正确答案”,但无人驾驶机器人却必须面对并作出选择。上述所言都是机器人在快速、广泛、深入社会生活中所可能面对的道德、伦理问题。机器人的自由程度越高,就越需要道德标准。机器人感知力的提升、自由化程度的提高所带来的不仅仅是工作效率的提升、社会成本的降低,更多的是系统性风险。机器人“加载”道德的目的并不是为了使机器人成为独立的物种,真正平等地参与社会生活,而是为了控制人工智能技术发展所致的系统性风险。这里的系统性风险主要是指机器人在发展、应用过程中,由于技术、外力、故障等各种原因所可能导致的对人类、社会、国家的危害。

   机器人道德的主体是机器人,而非设计者或使用者。曾经有人提出机器人的道德选择应该由设计者、使用者设定或者由法律规定。“机器道德决定的作出是基于一种程序或软件,从深层理解,却是来源于机器的使用者,因此在软件设计上体现一种道德的力量,可能是关键和必要的。”[2]哲学、伦理学和计算机科学等领域的学者已经提出了“人工道德”的概念,随着机器人智能水平的提高、独立自主性的提升,对于自主性越来越强的智能机器人来说,它们完全可能成为人工道德的主体。因此,机器人的设计者、使用者或法律规定的道德选择并不在本文所讨论的机器人道德问题的范畴内。事实上,机器人可以具有道德并非天方夜谭,更非无稽之谈。国外已有人进行类似的实证研究,美国机器人研究专家阿金(Ronald Arkin)为了使军用机器人比人类更具有人性,在机器人系统中设计了“人工良心”,并公开征求机器人应遵循的道德规范。[3]赋予机器人道德能力需要让机器人在一个道德判断情境中模仿人类的决策过程。首先,机器人应能意识到一个道德判断情境,并依循所布建的推理策略,包括道德原则、基准与价值等,才能在多样化的情境之下判断并处理道德信息,并作出相应敏感判断;特别是在道德两难的情境下,在不同道德原则相互冲突时,作出“合情、合理的决定”。机器人道德不可能也不应该脱离人类道德,这就意味着对机器人的设计者提出了较高的要求。在机器人的设计之初,便应将人类的基本道德原则以算法形式加入其中,并在其后的深度学习养成过程中进行不断的修正,以免出现机器人自以为“道德”但实际已严重背离人类道德观念的情形。这一重要的机器人设计要求应当体现在日后的机器人法律制度之中,以法律之形式明确设计要求才可有效控制机器人“无道德”或“非道德”所带来的风险。相应地,如果机器人的“道德算法”出现问题时,机器人的设计者、使用者应根据主观过错程度与客观危害结果承担相应责任。例如,如果机器人的设计者在机器人的智能程序中取消了不能伤害人类的“机器人三法则”,[4]那么在机器人失控并造成危害结果的情况下,设计者就应承担相应责任。又如,如果机器人的使用者故意将关于违法犯罪内容的大数据灌输给机器人致使其严重背离人类道德并实施违法、犯罪行为的,就应追究使用者的法律责任。

   当机器人能够且应当拥有道德时,其不道德的行为便存在了可谴责的基础,所谓道德非难才成为可能。从机器人的设计上来看,只有具备“人工道德”的机器人,才可以因不道德行为而受到非难,并承担相应责任。对于具备“独立意志”、“人工道德”的机器人,其自身独立于机器人的设计者,应对自身行为及其所造成的后果负责。

   (二)机器人与自然人的关系不应是平等的

   机器人的社会关系包括机器人与自然人的关系以及机器人与机器人之间的关系,其中最为重要也最具有现实意义的是机器人与自然人的关系。机器人与自然人的关系是随着历史发展、科技进步而逐渐产生变化的,其具体表现主要是取决于机器人自身的伦理地位。“对机器人伦理地位的思考正在成为人类不可回避的价值基点。机器人作为一种打引号的‘他’,不是动物的它,也不是人类的他,而是一种介于他和它之间的准他者。只有承认机器人是一种存在,承认其独立的伦理地位和内在价值,保持‘他’作为存在的完整性,人类才能和机器人和平共处,才能在与机器的结合中发展出恰当的伦理规范。”[5]机器人主体性、人格性、创造性的形成使得机器人的伦理地位成为了人们未来必须考虑的问题。在很长的一段时间内,机器人只能是自然人的“工具”,机器人的“工具”地位根深蒂固于人们的观念之中,以致有些人很难接受机器人主体地位的观点。然而,在人类的想象和对未来的预测之中,机器人在各方面均能够媲美甚至超过人类,其不仅可能获得主体地位,甚至可能会成为人类的“主人”。这一现实接受度与未来接受度的差异来源于人类对科技发展的复杂态度,并隐隐契合了人类心理与利益。人类一方面希望人工智能技术不断发展,机器人的智能性等能够媲美或者超越人类,最终实现替代人类从事工作的愿望;另一方面又害怕机器人在能力提升的同时会脱离人类的掌控,进而危害乃至奴役人类。著名理论物理学家霍金在2014年接受BBC采访时就断言人工智能可能意味着“人类的末日”。[6]这一复杂的心理态度从另一侧面展现了机器人的益处与风险。从科技发展的角度来看,以往的机器人本质上是基于自动化技术的机械电子装置,不具有人的属性,更不能与人进行无障碍、自由互动,因而将其视为工具无可厚非。但在人工智能技术革新与大数据支持的背景下,机器人已经迈向高度智能化,能够独立自主地活动而无需由人事先设定或发出指令。从机器人与自然人的关系来看,机器人的地位正在逐渐发生变化。可以预见的是,未来自然人与机器人的主从关系将慢慢淡化,取而代之的是近乎于平等的关系,机器人的主体地位正在逐步显现。深圳一女子欲与机器人结婚,前往民政局进行婚姻登记,系全国首例自然人欲与机器人结婚的事例。[7]从图灵测试开始,人工智能的目标早已不是纯粹的运算能力与感知运算,“情感计算”也是人工智能的重要发展方向。人们希望与机器人展开情感交流,期盼机器人在完成工作与任务之余能满足人的情感和心理需求,而不是面对一具冷冰冰的机器。现实的人类需求孕育出越来越多具备情感计算能力、能与人类进行感性交流的技术和产品,比如菲比小精灵和真娃娃机器人玩偶,一个叫“帕罗”的机器海豹,甚至可以用来充当老年人的伴侣动物。[8]2010年11月7日,“帕罗”成为了首个获得“户籍”的机器人,“帕罗”的发明人在户口簿上的身份是父亲。[9]人类与机器人产生感情并不是无意义的臆想,而是具有科学依据。日本丰桥技术科学大学(Toyohashi University of Technology)和京都大学(Kyoto University)的研究人员为人类与机器人的情感共鸣能力提供了神经生理学依据。[10]机器人主体地位的趋势已经形成,我们应当正视这一社会伦理现象,考虑赋予其适当的法律资格与地位,制定并完善相关的法律制度。

   可以肯定的是,机器人绝不可能获得完全的、不受限制的、与自然人平等的主体地位。众多科幻电影、未来学家早已警告人们:人工智能若不受控制地发展下去,将会灭绝人类。即便不会使人类灭绝,人类也绝难接受与机器人共同治理社会、分享资源的局面。正是基于保护人类、维护人类利益的理由,机器人的伦理地位只能是也至多是限制性主体地位,这一原则应始终予以贯彻,并在法律制度中予以体现。笔者认为,即便未来有一天机器人真的能够成为“其他人”,法谚“法律面前人人平等”也不应适用于自然人与机器人之间。机器人限制性主体地位意味着当自然人利益与机器人利益产生冲突时,原则上应保障自然人利益,在绝大多数领域内,自然人与机器人之间不应存在法律意义上的平等。

   

二、机器人的法律属性

 

   机器人伦理是研究机器人法律属性的前提与基础,机器人伦理的研究成果能够为机器人的法律属性提供研究依据。机器人的伦理地位、机器人与自然人的关系都应体现在机器人的法律属性、法律制度之中。上述机器人伦理的内容可总结为机器人的法律制度安排所必须遵循的基本原则:承认与限制。智能机器人的规范研究与制度安排应始终坚持上述基本原则。在智能机器人的法律人格、法律权利与责任等问题上应秉持承认与限制的基本立场,这一立场实质上是赋予机器人限制性主体地位,而非与自然人完全平等的主体地位,因此在自然人与机器人的利益博弈、冲突中应坚持自然人利益优位。

   (一)机器人的法律地位

   机器人伦理是构建机器人法律制度的基础与前提。以机器人的法律地位为例,尽管我们能够通过技术操作满足机器人法律地位的条件,但其背后的伦理基础显然是无法通过解释技巧进行补足的。因此,机器人的伦理地位与机器人的法律地位息息相关。机器人伦理地位不仅取决于社会的态度,更与人工智能技术存在重要关联。机器人主体性、人格性、创造性的凸显是人工智能技术迅速发展的高科技结果,没有这些科技,机器人永远只能是工具。人工智能技术使得智能机器人具有越来越多的可能性,在情感、军事、服务等领域都有突出的表现。例如,Packbot机器人在成功执行了35次任务后,不幸被炸坏,而后有几名士兵恳求修复它,因为它曾救过自己的命。又如,性爱机器人在日本、欧洲相继出现并流行,也有人提出希望与其成为伴侣。可以预见的是,智能机器人的伦理主体地位终将会得到人们的认可,这一需求必然会反映在法律制度的构建上。机器人的主体地位虽然目前只是一种学术观点,但这一趋势必然会继续演进下去直至落实到法律实践之中。

   承认机器人的伦理主体地位是构建智能机器人法律人格的前提与基础。智能机器人已然不同于普通的机器,存在赋予其法律人格的正当化依据。可以肯定的是,目前智能机器人已具有以下能力:(1)模仿任何其他机器的行为;(2)好奇心(即为了研究它们的环境总是在移动);自我识别(即对它们自己的视觉能作出反应);相互识别其同类机种的成员;(3)从它们自身的错误中学习;(4)像人一样“有创造力”和“有目的”,甚至会“寻找它们力所能及的目标”;(5)再生自己的能力;(6)“通过自我修复机制而有无限的使用寿命”。[11]“没有理性的东西只具有一种相对的价值,只能作为手段,因此叫作物;而有理性的生灵才叫作‘人’,因为人依其本质即为目的本身,而不能仅仅作为手段来使用。”[12]智能机器人具有理性已是不争的事实,具有思维与意志亦是可期的未来。

   法律的功能是将社会现实中纷繁不同、各具特点的人,以统一的标准人、制度人的方式抽象构建出法律上的人。[13]应该看到,时下将智能机器人作为法律人对待仍存在法理上的困惑。在法学发展的历史中,法律人的构建有许多不同的法学流派,自然法学派以“自然人”为基点,以人性为视角构建出在人类共性之上的“抽象人”。[14]功利法学派也同样以人性为视角,二者的区别是,自然法学派以“理性人”为基础,而功利法学派以“现实人”为基础。分析法学派则认为人生存于制度之中,依附于制度而获得相应的权利与自由。[15]凯尔森认为:“法律上的人并不是在‘它的’义务和权利之外的一个分立的实体,而只是它们的人格化了的统一体,或者由于它的义务与权利就是法律规范,所以不过是一批法律规范的人格化了的统一体而已。”[16]笔者认为,我们将智能机器人作为法律上的人或者赋予智能机器人法律上的人格并不是天方夜谭,更不必有背离法学基础理论的担忧。自然法学派与功利法学派从人性角度解构法律人,而分析法学派从规范与制度角度解构法律人,两者都具有相当深厚的理论基础。从法规范本身来说,法律人的构建源于规范而非源于人性。法律人这一概念的出现,是通过法律制度将人的概念予以类型化的结果。“人之所以为人,并不是因为他是一种有肉体和精神的生物,而是因为根据法律规则的观点,人展现了一种自我目的。这样为了证明人类群体可能可以具备法学人格,我们不需要证明人类在生物学上是相同的客观实体、组织,而是需要证明自我目的在人类群体当中和在个体的人身上的体现是一致的。”[17]因此,将没有生命体的智能机器人作为法律人是具有现实可能性的。超越程序设计与编制范围、基于独立意志进行活动的智能机器人,完全可以证明自我目的,具备法律人格的基础。此外,也有学者提出从“伦理人”到“科学人”的转变。[18]“无论如何,法律人格总会随着时代变迁丰富其内涵。值得肯定的是,法律人格在其历史发展过程中,起源于伦理性,又最终超越于(而非脱离)伦理性;伦理性在一定层面上仍是其深层基础,完全彻底抛弃伦理性这一本源很可能会让法律人格迷失方向和丧失进一步发展的动力。”[19]

   既然智能机器人具备法律人格的基础,那么将其作为法律主体对待是否会对法律上“人”的概念产生致命的冲击?应当看到,法律上“人”的概念并非一成不变。随着时代的变革与理念的转变,法律上“人”的内涵与外延经历了不断的演进与变化。正如同“法人”这一概念的确立扩大了法律上“人”的概念与范畴,人工智能时代智能机器人法律人格的创设也可依迹而循。因此,将智能机器人作为法律上的“人”似乎是契合时代潮流的。事实上,虽然我国法律目前没有规定智能机器人的法律人格与权利义务,但世界范围内早已有国家或组织针对该议题进行研究或立法。可见,立法上赋予智能机器人法律人格与权利义务并非完全不可能,世界范围内已有先行者的前沿立法活动。

   (二)机器人的法律权利

   机器人权利是机器人伦理与规范研究的重要内容。在承认法律人格之后,机器人的权利自然而然便是我们研究的重点和方向。承认与限制的基本原则应始终贯穿于机器人伦理与规范研究之中,在机器人权利的领域内亦不例外。机器人权利具有合理性,随着人工智能向纵深发展,机器人的权利必将得到承认。与此同时,机器人也应承担自己行为所致责任,这是基本法理之所在。在承认的基础上,对机器人的权利类型、范围也应当以伦理为依据进行限制。这一限制取决于自然人与机器人之间的关系,正如前文所述,无论如何自然人与机器人都不可能平等相处,人类不会容许机器人与人类共同治理国家的情形出现。即便机器人真的有可能达到与自然人无异,两者也不可能平等相处。

   承认机器人的权利具有必然性。机器人权利应该得到承认的根本原因在于机器人权利具有合理性。主张机器人权利的观点并非一家之言,亦非空中楼阁。早在20世纪便有学者对机器人权利与责任进行研究。1964年,麻省理工学院的美国哲学家普特南(Hilary Putnam)认为当机器人技术足够成熟时,机器人对权利便会有所要求。[20]2000~2011年间,也有外国政府、研究机构等召开研讨会,讨论“机器人与权利”。[21]直至2017年,机器人权利与责任已经从学术研究转变为现实的立法例。欧盟法律事务委员会主张机器人的“工人”身份并赋予其特定的权利义务;日本、韩国也起草了《机器人伦理宪章》等规范性文件。[22]针对机器人权利的说法,也有反对的声音。“即便是机器人可以进行一定程度的自我进化,这也并不意味着人对这种进化的方向与速度失去可控性。假如机器人可以进化到成为拥有生命意识、自我生存欲求和发展目标能力的新型物种,我们就必须及时阻绝这种事态,绝对禁止这种可能提出权利要求的失控物对人类利益造成威胁与损害,这是我们触及与机器人相关的伦理道德问题时的核心关切之所在。”[23]应当看到,这一反对只不过是将限制的立场发挥到极致,核心在于保守的观念与对人工智能技术发展的悲观。一些保守的社会科学学者无法接受这一立场情有可原,毕竟科学技术的发展速度早已超出一般人的理解。“最终,人类不仅可以把机器人看作是机械奴隶、生产品和买卖物,而且可以看作是有其自身权利的实体。通观整个法律史,权利的每次向某种新实体的继续延伸总是有点不可思议的。我们倾向于设想无权‘事物’的无权性是大自然的一种天意,而不是一种出乎支持某种现状的法律协定。”[24]

   在承认机器人权利的基础上,限制机器人的权利亦符合人类利益。“人权是一个重要的伦理、法律与政治概念,而机器人权利更多地属于伦理、科技与安全的范畴。”[25]美国未来学家库兹韦尔的奇点理论认为,技术的加速发展会导致一个“失控效应”,人工智能将超越人类智能的潜力和控制,迅速改变人类文明。人工智能奇点的来临使得机器人能够完全独立、自主升级、进化,人类已经无法理解机器人的世界。奇点带来的失控可能是人类与机器人共生,亦可能是人类完全被奴役甚至灭绝。所以,为了避免人类的灭绝,也为了人类的共同利益,限制是必然得到共识的基本立场。

   值得注意的是,机器人的权利只能由法律明文规定,“天赋人权”无法适用于机器人。机器人毕竟不是普通法律意义上的人,自然人的法律权利诸如宪法权利、民事权利等均无法及于机器人。在机器人权利的具体内容上,不同类型、不同智能水平的机器人所享有的权利应当是不同的。有人提出无人汽车应当有“路权”,即通过制定法律规定路面上车身前、后一定距离内为无人汽车独自占有。机器人被攻击时应有“自卫权”,机器人外科医生应有执照和行医权。机器人为了有效地服务社会和便于公众接受,应当拥有相应的权利保障,机器人要遵纪守法,也要有权利。[26]此外,具有独立、自主意识的智能机器人不应被视为自然人的财产,而应受到最基本的尊重。[27]人类不能肆意处置、虐待或者抛弃此类机器人,针对机器人的利益也应当通过立法进行保护。

   

三、智能机器人严重危害社会的行为应受刑法规制

 

   机器人伦理规范在机器人法律制度中的体现不仅应包含对智能机器人法律地位、法律权利的承认与限制,还应包括对智能机器人的规制与惩罚。这一内容尤其体现在与伦理规范息息相关的刑法之中。人工智能时代的来临,不仅为社会带来效率与红利,也带来了诸多的智能机器人风险。刑法如何应对智能机器人风险,如何规制与惩罚智能机器人是未来研究的重要内容。我们首先需要面对的问题是,智能机器人能否成为犯罪主体?智能机器人可以实施何种犯罪?

   (一)智能机器人可以成为犯罪主体

   智能机器人能否成为犯罪主体取决于其是否符合刑法所规定的成为犯罪主体的条件。根据我国《刑法》17条的规定,犯罪主体需具备以下条件:(1)实施了严重危害社会的行为;(2)具备刑事责任能力;(3)依法应当承担刑事责任。其中第(3)点条件的成立来源于立法,在第(1)点和第(2)点成立之后,由立法明确其犯罪主体地位。正如单位犯罪在1979年《刑法》中尚未出现,经由1987年《海关法》的附属刑法确立了单位(法人)犯罪一样,智能机器人犯罪是否可以依法承担刑事责任本身并不是决定智能机器人能否成为犯罪主体的实质条件,而是立法者在肯定智能机器人具备刑事责任能力并能够实施严重危害社会行为之后在立法上的选择与回应。第(1)点和第(2)点才是决定智能机器人能否成为犯罪主体的本质要件,第(3)点只是罪刑法定原则下对前两点在形式上的固定化、法定化。如若符合第(1)点和第(2)点,则可在刑法第二章第四节单位犯罪后增设一节智能机器人犯罪,承认其主体地位。

   1.智能机器人能够实施严重危害社会的行为

   本文所言可归责于智能机器人的犯罪行为,是指在程序设计与编制范围之外,智能机器人基于独立“意志”所自主实施的犯罪行为。对于智能机器人按照程序设定的目的实施犯罪行为的,应归责于智能机器人背后的程序设计者以及智能机器人的使用者等人。此时智能机器人仅是工具,而非主体,故危害结果不应也无法归责于智能机器人本身。智能机器人对社会造成损害的情形在世界范围内并不罕见,只是大部分不是智能机器人基于独立意志所自主实施的行为,而多是由于机器、程序故障或操作失误所致。例如,德国大众汽车厂“机器人杀人”事件其实是生产安全事故而非智能机器人基于独立意志所自主实施的行为。工人在工作过程中不慎触发机器人的程序而受到机器人的误伤,因而导致了死亡结果。目前看来,在躯体层面,智能机器人完全拥有实施严重危害社会行为的能力,而在意识层面,尚不能超越程序控制而产生自主意识。但可以预见的是,基于深度学习技术、神经网络学习技术与大数据技术的发展,在不久的将来,智能机器人完全可能产生超越于程序控制的自主意识。未来实验室首席战略与创新官特雷西?弗洛斯认为,人工智能和机器学习技术将帮助机器人拥有自动编程并实施犯罪行为的能力,并预言到2040年机器人犯罪率将超过人类。[28]

   2.智能机器人具有辨认能力和控制能力

   辨认能力是控制能力的前提,只有具备辨认自己行为是非对错的能力,才可根据这种认识对自己的行为进行控制。对于有生命体的自然人来说,只要达到刑事责任年龄、精神正常便被视为具有辨认能力与控制能力。对于单位来说,刑事责任能力是单位内部自然人个人辨认、控制能力的集合,但又超越自然人,表现为超个人辨认、控制能力的一种集体意志。但智能机器人既无生命体,亦无法根据精神状况与刑事责任年龄认定其辨认和控制能力,更无法根据集体意志与法定存在形式认定其辨认和控制能力,智能机器人的辨认能力与控制能力来源于程序的设计、编制与物理硬件的联合作用。由人类设计、编制的程序使智能机器人具有了独立思考和学习的能力,这种能力使得智能机器人可以产生独立、自主的意识和意志。在这一意识与意志的支配下,程序与硬件为智能机器人的辨认能力与控制能力提供了物理基础。应当看到,只有同时具备辨认能力和控制能力,才可以承担刑事责任。在程序设计范围内进行活动的智能机器人由于受制于程序,因此不具有控制能力,也就不具有承担刑事责任的能力。另外,刑法意义上的辨认能力是对行为的性质、后果、作用的认识能力,这种认识包括事实层面的认识和规范层面的认识。事实认识是一种形式上的认识,智能机器人可以通过其“电子眼”、“电子耳”认识到事实。但对行为性质、作用的认识是一种规范认识,仅依靠物理硬件是不可能完成的。即便是自然人,其认识行为的性质、后果、作用的能力也并不是一蹴而就的,而是在成长过程中,逐渐在家庭乃至于社会生活中体会到规范秩序并由此形成规范意识。笔者认为,在智能机器人的程序设计与编制中加入深度学习法律与规范的部分,将大量的法律、规范性文件、案例作为智能机器人的学习内容,由此使机器人产生规范意识。相较于辨认能力,控制能力的实现是智能机器人的必备能力,是程序设计与编制的必需内容。智能机器人拥有极快速的处理能力、反应速度和极精准的控制能力,能够凭借大数据与高速运算能力对行为进行精准的控制。与自然人相比,智能机器人具有超强的控制能力与可培养的辨认能力,即智能机器人具有承担刑事责任的可能性。至于智能机器人承担刑事责任的具体内容与方式,则必须与智能机器人所享有的权利有所对应。因为刑罚是一种必要的害恶,是对犯罪人权利的剥夺与合法侵害,在现行法律体系并未确立机器人权利的情况下,现行刑法也不可能存在可以直接适用于机器人的刑罚。必须根据智能机器人所享有的权利类型重新建构刑罚体系,以实现刑罚的目的。

   (二)智能机器人犯罪的范围

   刑法分则共有十章,分别为危害国家安全罪,危害公共安全罪,破坏社会主义市场经济秩序罪,侵犯公民人身权利、民主权利罪,侵犯财产罪,妨害社会管理秩序罪,危害国防利益罪,贪污贿赂罪,渎职罪和军人违反职责罪。对上述十类犯罪而言,自然人完全能够实施,智能机器人则不然。智能机器人能够实施犯罪的范围取决于智能机器人自身的特点。智能机器人与自然人的共同点决定了两者都可实施的犯罪的范围,智能机器人与自然人的不同点则划分出了智能机器人无法实施犯罪的范围。

   实施犯罪的范围取决于犯罪主体的特点。单位作为刑法明文规定的主体,能够实施诸多破坏市场经济秩序、妨害社会管理秩序的犯罪(较多地体现为法定犯),但其无法实施侵犯公民人身权利、民主权利的犯罪(较多地体现为自然犯)。众所周知,刑法中法定犯与自然犯的最大区别在于是否违背伦理道德。由于单位不具有伦理道德,其不可能实施具有违背伦理道德特性的自然犯类别的犯罪。对智能机器人而言,其尽管不具有生命体,但是,正如前述,其具有伦理与道德,能够实施违反伦理与道德规范的行为,并进而在构成相应的自然犯类别的犯罪上没有障碍。应当看到,智能机器人能够实施刑法分则规定的大部分犯罪,只有极少数犯罪因其自身特性而不具有实施的可能性。智能机器人与自然人具有较多的共同点,因此以自然人为主体的刑法罪名往往也能够适用于智能机器人。以刑法分则第五章侵犯财产罪为例,智能机器人可以实施绝大部分犯罪,如抢劫罪、盗窃罪、诈骗罪等。但是,基于身份所实施的犯罪,智能机器人有些因不可能具有这种身份而无法单独实施(例如,贪污罪、受贿罪、挪用公款罪等罪的主体只能由国家工作人员才能构成,而智能机器人显然不可能具有这种身份),有些则完全可能单独实施(例如,智能机器人医生可以成为医务人员而实施医疗事故罪)。毋庸讳言,时下尽管智能机器人具有替代人进行工作的功能,甚至在医疗、法律、金融领域都有不俗的表现,但由于其在身份认定上还存在较大困难,智能机器人单独构成刑法分则要求具有特定身份的犯罪仍然有很大障碍。但是,我们也应该看到,虽然时下智能机器人尚无法单独成为身份犯罪的正犯,但是我们完全可以用身份犯共同犯罪的规定和原理,对智能机器人的帮助、教唆等行为加以评价。不过,随着智能机器人不断深度融入人类社会,赋予智能机器人某些特定身份的图景可能迟早会到来,到那时智能机器人犯罪与自然人犯罪在主体范围上可能更为接近。

   (三)智能机器人与一般机器人的区别

   在人工智能时代到来之前,笔者就已提出“机器人”[29]可以成为犯罪对象的理论。具体而言,行为人冒用他人信用卡,在ATM机上取钱的行为构成信用卡诈骗罪,此时,ATM机是被骗对象。笔者认为,ATM机既不是机器也不是人,而是“机器人”。这是因为,程序设计与编制赋予了ATM机类似于银行柜员的识别功能,替代银行柜员进行金融业务。[30]当时尚未出现智能机器人,作为一般机器人的ATM机仅能成为诈骗罪的对象,不能成为诈骗罪的主体,即机器人无法实施诈骗行为并为此承担刑事责任。主要理由在于:(1)机器人虽然具有部分人的功能,但不足以主动实施诈骗行为。程序设计与编制赋予了机器人部分人的功能,这部分功能主要是指识别功能,包括验证账户、密码以及人的真实性等。一般而言,识别功能是被动的而非主动的,是程式化的而非创造性的。所以,机器人仅能在识别功能的范围内运作,而不可能超出识别功能的范围去实施欺骗行为。(2)识别功能尚不足以被评价为刑法中的辨认能力。实施诈骗行为并承担刑事责任的重要依据在于实施者的辨认能力与控制能力,机器人的识别功能还远远达不到一般自然人的辨认能力。正如前述,辨认能力不仅是对事实的认识,更是对事实所蕴含规范意义的认识,作为诈骗类犯罪对象的机器人最多只能认识到事实(包括错误的事实),而不可能认识到事实的性质、作用等规范层面上的意义。因此,机器人仅能作为诈骗类犯罪的犯罪对象,而不能作为诈骗类犯罪的犯罪主体。

   然而,人工智能的发展不仅为“机器人”可以成为犯罪对象的理论提供了发展的路径,也为“机器人”可以成为犯罪主体提供了基础。未来的智能机器人可以主动实施诈骗行为,成为诈骗类犯罪的主体。智能机器人是普通机器人的升级,与普通机器人相比,智能机器人可能产生自主的意识和意志。人类创造机器人的技术达到了无与伦比的程度,依次经历了机器人1.0时代(制造出对外界环境无感知的初级机器人的时代)、2.0时代(制造出对外界环境有感知的高级机器人的时代)、3.0时代(制造出对外界环境有认知、推理和决策能力的智能机器人的时代)。科学技术的发展使得当下和将来的智能机器人能够像“人”一样会思维,甚至能自我创造。智能机器人与普通机器人相比具有以下不同点:(1)智能性。智能性是区分普通机器人与智能机器人的本质特征。这一特征主要表现为认知、推理和决策的能力。智能机器人往往能够在需要感知、思考、计算乃至于创作的领域达到与人类相媲美甚至超越人类的程度。(2)主动性。普通机器人与智能机器人的共同点在于对外界都有认知能力,差别在于智能机器人具有推理和决策能力,即智能机器人的活动具有机器人难以比拟的主动性。只要给智能机器人设定好目标,其就会自我判断、决策通过何种方式实现目标,并针对情况变化进行反应,而普通机器人只能根据人类的指令进行被动的反应式活动。此外,智能机器人可以主动通过神经学习、深度学习与大数据技术来获得进步。(3)创造性。普通机器人不具有创造性,其每一步操作都是按照程序的具体设定来进行的,人们可以完全预测到它们遇到不同的情况会作出什么样的具体“反应”。例如,当持卡人将账户和密码告知ATM机时,ATM机会按照设计和编制的程序即时作出识别和判断,与持卡人进行符合设定程序的金融交易。智能机器人完全不同,人们可以为其设定目标,但无法预测其如何实现目标,即智能机器人实现设定目标的过程完全超出设计者的控制范围。

   在探究智能机器人能否成为诈骗类犯罪主体时,应当考虑到智能机器人与普通机器人存在的差异。正如上文所述,对于具有自主意识的智能机器人,刑法上应当认可其刑事责任能力与主体地位。笔者将智能机器人分为两类:一类是仅能在程序设计与编制范围之内进行活动的智能机器人。这类机器人虽然具有认知、决策与推理能力,也能够实施诈骗行为,但其受研发者或使用者的钳制,不具有自主意识,不能独立作出决定,其实施的诈骗行为所体现的是其背后研发者或使用者而非其本身的意志与目的,因此,智能机器人此时只能作为背后的研发者或使用者实施诈骗行为的工具,而不能作为实施诈骗行为的主体。另一类是能够在程序设计与编制范围之外进行诈骗活动的智能机器人,其可基于自主意识而独立决定实施诈骗行为。后者能够成为诈骗类犯罪的主体应无异议。

   综上,笔者认为,从能否成为诈骗类犯罪的主体角度看,普通机器人不具有实施诈骗行为的能力,不能作为主体;不具有独立意识的智能机器人虽然能够实施诈骗行为,但行为体现的是研发者或使用者的意志与目的,此时智能机器人只是工具而非主体;在程序设计与编制范围之外具有独立意识的智能机器人,能够独立实施诈骗行为,可以成为诈骗类犯罪的主体,承担诈骗类犯罪的刑事责任。但是,从能否成为诈骗类犯罪的对象角度看,机器人以及两类智能机器人都至少具有识别功能,因而都可以成为诈骗类犯罪的对象。承认智能机器人的犯罪主体地位,并非理论上的自我诠释与陶醉,而是具有巨大的社会治理意义。对实施了犯罪行为的机器人科处刑罚,有利于降低社会治理成本。刑罚的目的是预防犯罪,包括特殊预防与一般预防。这两种预防功能在机器人身上皆得以奏效。机器人具有感知刑罚痛苦的能力(刑罚的形式包括限制、剥夺自由,毁损等),并且能够在犯罪的快感与刑罚的痛感之间进行理性权衡,以调整其之后的行为,换言之,自由意志的存在决定了机器人本身是可以接受深度学习与深度改造的。一般预防的功能则体现得更为充分,由于机器人具有意识和意志,会学习,能思考,因而此机器人完全可以从彼机器人犯罪受刑的经历中受到威慑与教育,从而不断在自己的“大脑”中塑造或加深符合人类社会规范的价值观。假如我们无视机器人的自由意志,简单而粗暴地将机器人当作不具有主体资格的物品来看待,一旦机器人实施了严重危害社会的行为便在物理上毁损之(因为自由意志是无法毁灭的),那么经济成本将是巨大的,一般预防功能也会荡然无存。唯有尊重机器人的自由意志,将其作为行为主体与社会成员来看待,有罪必罚,并经由刑事诉讼程序进行法律上的审判,才能在机器人的“大脑”中建立价值体系,植入人类文明,使其自觉遵守并维护社会秩序,从而实现“人工人”向“社会人”的转变,这是人工智能技术发展到一定程度时的理性选择与必由之路,有利于最大程度地降低社会治理成本。

   

四、智能机器人应成为刑法保护的对象

 

   智能机器人不仅能够成为犯罪主体,亦可成为犯罪对象。智能机器人的犯罪对象地位是不容否认的,一味地规制智能机器人的犯罪行为,而不保护智能机器人的权利不利于人工智能的健康发展。智能机器人的犯罪对象地位实际上折射出的是刑法保护理念。然而,无论采取何种刑法保护理念,这一疑问总是会浮现于心中:刑法保护智能机器人权利的意义是什么?

   (一)刑法保护智能机器人权利的意义

   这一问题应当回归到本原,刑法保护的是什么?理论上有观点认为,刑法的任务与目的是保护法益。该观点从利益关联性、法的关联性、可侵害性、人的关联性、宪法关联性五个方面将法益的概念界定为:根据宪法的基本原则,由法所保护的、客观上可能受到侵害或者威胁的人的生活利益。其中人的生活利益不仅包括个人的生命、身体、自由、名誉、财产等利益,而且包括建立在保护个人利益的基础之上因而可以还原为个人利益的国家利益与社会利益。[31]因此,智能机器人能否成为刑法所保护的对象,取决于其是否享有权利。从利益关联性来看,智能机器人有着归属于自身的利益。特别是在机器人伦理中要求自然人尊重智能机器人,更是利益关联性的重要表现。从可侵害性来看,智能机器人的利益是可能受到他人侵害的。例如黑客故意损毁智能机器人的程序等。从人的关联性来看,前文已述,智能机器人的法律主体地位应得到承认,其能够成为法律上的“人”。从法的关联性与宪法关联性来看,智能机器人能否受到刑法保护,或者说智能机器人的犯罪对象地位最终仍需要宪法与法律明确其主体地位与相关利益。唯此,智能机器人的犯罪对象地位才能够得到确立。

   从刑法的机能来看,保护智能机器人有着重要意义。刑法的机能在于人权保障与社会保护。从人权保障来看,智能机器人虽尚未有人权,但无碍于刑法保护其类似于人权的利益。智能机器人灵性的觉醒意味着智能机器人能够拥有认知、感情,智能机器人亦有其自身之欲求。在智能机器人成为被告人或被害人时,刑法的人权保障机能便可发挥作用,一方面使得作为被告人的智能机器人免受不白之冤,另一方面保护作为被害人的智能机器人的权益。从社会保护来看,保护智能机器人对维护与控制社会秩序具有积极意义。随着智能机器人的普及,未来的社会成员结构之中必然有智能机器人的一席之地,虽其不与人类完全平等,但保护这一类特殊的社会成员对社会秩序的维护亦具有重要作用。此外,不对智能机器人进行保护意味着人类可以随意处置智能机器人,这不仅会使得智能机器人产生负面情绪甚至于向人类发起反抗,更有可能令智能机器人失控以至于阻碍人工智能的发展,妨害社会秩序。从这个意义上说,承认机器人的权利具有鲜明的功利主义色彩,其本质是为了更好地实现人类的利益。

   (二)刑法保护智能机器人权利的范围

   智能机器人受刑法保护的范围取决于智能机器人的权利范围。刑法所保护的自然人享有的权利类型主要有人身权利、民主权利、财产权利等。行为人侵害某一权利类型即可能构成相应犯罪。例如,非法剥夺他人生命可以构成故意杀人罪。自然人享有生命权(人身权利),行为人故意杀害自然人的,因侵害了自然人的生命权而构成故意杀人罪。然而,虽然单位是法人,但不享有人身权利中的生命权,所以故意使单位破产、消灭的,不属于刑法中故意杀人罪所规制的范畴。但是,侵害单位财产权利的,则可以构成相应的财产犯罪。由此可知,是否享有法律所赋予的权利是能否成为刑法上的犯罪对象的决定性条件。就权利概念而言,有应然权利与实然权利之分。依照“天赋人权说”,自然人的权利是与生俱来的,此为自然人之应然权利,未将应然权利转化为实然权利的法律,非为良法。但智能机器人不同于自然人,不适用“天赋人权说”,其权利只能来源于法律的规定。尽管目前我国法律尚未作出相应的规定,但不妨碍学者们基于智能机器人的特性为其构建权利模型。譬如在知识产权法领域,已有学者提出智能机器人应享有自己创作作品的著作权。[32]

   鉴于承认智能机器人权利所秉持的功利主义立场,智能机器人在人身权利保护方面,尚不能与自然人享有同等待遇。智能机器人没有生命体,也不应享有生命权。自然人的生命权表现在自然人的生命体上,伤害自然人的生命体致使其死亡,即是侵害其生命权。智能机器人没有生命体,只有机器躯体。机器躯体具有可修复性、可替换性等特点,与生命体不可修复、不可替换完全不同,因此,我们不能认为智能机器人具有生命体。应当看到,认为具有独立、自主意识的智能机器人有生命体且享有生命权,显然扩大了生命的本质与内涵。这一认识不仅与人类伦理观念相冲突,对于保护智能机器人也没有较大的积极意义。事实上,即便不赋予智能机器人生命权也同样可以妥当地保护智能机器人。例如,对于破坏智能机器人的机器躯体或者程序的行为,可以按照刑法中相关的财产犯罪加以处理。

   智能机器人不应享有人身自由权。《世界人权宣言》1条指出:“人人生而自由,在尊严和权利上一律平等。”天赋人权本质上是一定的社会文化结构所能提供的个人自由空间最大化。[33]需要指出的是,从刑法意义上分析,人身自由权属于人身权利中的重要组成部分,而所有人身权利(包括人身自由权)的存在,均是以生命权的存在为前提的。一个人如果丧失了生命,那么其所有的人身权利也就随之消失。正如前述,智能机器人与自然人的最大区别在于其不具有生命体,因而智能机器人也当然不可能具有人身自由权。另外,从价值论角度分析,智能机器人存在的目的与价值亦有独特性。智能机器人服务人类社会的存在目的决定了其服务价值是根本价值,自由价值远远低于前两者。赋予智能机器人人身自由权是与其存在目的冲突的,也不利于智能机器人服务人类社会。所以,智能机器人无法成为非法拘禁罪等侵害人身自由权犯罪的对象。值得注意的是,智能机器人虽然不具有人身自由权,但其具有独立、自主的意识,可在一定的自主空间内实施行为。例如,恐怖分子劫持智能飞行器并试图改变航向时,飞行器应自主判断并作出决定,拒绝恐怖分子的飞行操作,以自动驾驶的方式向正确的目的地飞行。

   智能机器人未来可能享有财产权利并受到刑法保护。随着科技的发展和法学研究的逐步深入,智能机器人可能也将享有财产权利。例如,创作出作品的智能机器人享有著作权等。智能机器人享有上述权利是具有理论基础与现实可能的。对于完全独立、自主的智能机器人而言,财产是其赖以独立生存、保养自身的保障,应在立法上予以明确并进行保护。从刑法角度来看,侵害上述权利的行为可能构成相应犯罪。例如,盗窃、诈骗、抢夺智能机器人财产的,构成相应财产犯罪,但由于智能机器人没有肉体也没有生命权、人身自由权等人身权利,所以抢劫智能机器人财产的行为不应构成抢劫罪,而仍属于抢夺罪或者盗窃罪的范畴。

   

   【注释】 *华东政法大学教授,法学博士。本文系国家社科基金重大项目“涉信息网络违法犯罪行为法律规制研究”(项目编号:14ZDB147)、中国法学会重点委托课题“互联网金融犯罪的法律规制”(项目编号:CLS2016ZDWT48)的阶段性研究成果。

   [1][日]川岛武宜:《现代化与法》,王志安、渠涛、申政武、李旺译,中国政法大学出版社1994年版,第10页。

   [2]王东浩:《机器人伦理问题研究》,南开大学博士学位论文,2014年,第46页。

   [3]杜严勇:《现代军用机器人的伦理困境》,载《伦理学研究》2014年第5期,第100页。

   [4]阿西莫夫在1942年发表的短篇科幻故事《环舞》(Runaround)中首次明确阐述了有关机器人三法则的思想。机器人第一法则,即机器人不得伤害人类,或坐视人类受到伤害;机器人第二法则,即除非违背第一法则,机器人必须服从人类的命令;机器人第三法则,即在不违背第一及第二法则下,机器人必须保护自己。机器人三原则虽然来源于科幻小说作者的遐想,但笔者认为具有重要的指导意义。

   [5]《情感机器人:技术与伦理的双重困境》,载《科技日报》2009年4月21日,第5版。

   [6]BBC News, Stephen Hawking—Will AI Kill or Save Humankind?,http://www.bbc.com/news/technology -37713629,accessed July 28,2017.

   [7]《全国首例机器人与人结婚?》,http://news.chinabyte.com/187/14066187.shtml,访问时间:2017年10月1日。

   [8]《人工智能,当机器人有了丰富的感情,与机器人谈“感情”,人类是否“很受伤”?》,http://www.cankaoxiaoxi.com/science/20160405/1118962.shtml,访问时间:2017年10月1日。

   [9]Jennifer Robertson, Human Rights vs. Robot Rights: Forecasts from Japan, 46(4) Critical Asian Studies 571,571-598(2014).

   [10]《人类会与机器人相爱吗?易产生情感共鸣引担忧》,http://tech.sina.com.cn/d/v/2015-11-09/doc - ifxknutf1617260.shtml,访问时间:2017年10月1日。

   [11]Phil McNally & Sohai Inayatullay:《机器人的权利——二十一世纪的技术、文化和法律(上)》,邵水浩译,载《世界科学》1989年第6期,第50页。

   [12][德]卡尔?拉伦茨:《德国民法通论》(上册),王晓晔等译,法律出版社2003年版,第46页。

   [13]参见胡玉鸿:《法律主体概念及其特性》,载《法学研究》2008年第3期,第6页。

   [14]参见赵敦华:《西方哲学简史》,北京大学出版社2000年版,第289页。

   [15]胡玉鸿:《“法律人”建构论纲》,载《中国法学》2006年第5期,第39页。

   [16][奥]凯尔森:《法与国家的一般理论》,沈宗灵译,中国大百科全书出版社1996年版,第106页。

   [17][德]拉德布鲁赫:《法哲学》,王朴译,法律出版社2005年版,第134页。

   [18]沈寨:《从“伦理人”到“科学人”——以民法为例看近现代中国法律上的“人”的变迁》,载《太平洋学报》2011年第8期,第4页。

   [19]马骏驹、刘卉:《论法律人格内涵的变迁和人格权的发展》,载《法学评论》2002年第1期,第35页。

   [20]Hilary Putnam, Robots: Machines or Artificially Created Life?61(21) The Journal of Philosophy 668,668-691(1964).

   [21]For and Against: Robot Rights, http://eandt.theiet.org/magazine/2011/06/debate.cfm.

   [22]参见吴汉东:《人工智能时代的制度安排与法律规制》,载《法律科学》2017年第5期,第133页。

   [23]甘绍平:《机器人怎么可能拥有权利》,载《伦理学研究》2017年第3期,第130页。

   [24]同注[11]引文,第48页。

   [25]杜严勇:《论机器人权利》,载《哲学动态》2015年第8期,第86页。

   [26]封锡盛:《机器人不是人,是机器,但须当人看》,载《科学与社会》2015年第2期,第7页。

   [27]David Calverley, Android Science and Animal Rights, Does an Analogy Exist?18(4) Connection Science 403-417(2006).

   [28]彬彬:《2040年机器人犯罪率将超过人类成大多数犯罪主体》,载《科学与现代化》2017年第1期,第135页;《人工智能AI发展到一定程度后会犯罪吗?》,http://www.techweb.com.cn/column/2016-09-13/2392298.shtml,访问时间:2017年8月26日。

   [29]此处“机器人”原本仅指一般机器人,但随着人工智能的发展,智能机器人也应被纳入其中。前文所述“机器人”是属概念,是指与自然人对应的机器人。

   [30]刘宪权:《金融犯罪刑法学原理》,上海人民出版社2017年版,第509页。

   [31]参见张明楷:《刑法学》,法律出版社2016年版,第63页。

   [32]王迁:《论人工智能生成的内容在著作权法中的定性》,载《法律科学》2017年第5期,第154页。

   [33]参见陈兴良:《刑法的价值构造》,中国人民大学出版社2006年版,第101页。

   【期刊名称】《比较法研究》【期刊年份】 2018年 【期号】 4

 

 

本文责编:陈冬冬
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 理论法学
本文链接:http://www.aisixiang.com/data/112274.html 

转引日期:2018年9月17日