论文精粹|INFORMATION
刘宪权:人工智能时代的“内忧”“外患”与刑事责任
管理员 发布时间:2018-03-12 07:55  点击:2790
 

   【摘要】以人工智能产品是否具有辨认能力和控制能力,可以将其划分为弱人工智能产品与强人工智能产品。弱人工智能产品不具有辨认能力和控制能力,仅能在设计和编制的程序范围内实施行为,实现人类设计和编制程序的目的。弱人工智能时代的“外患”在于,人类完全有可能让其为己所用,实现自己的犯罪目的。弱作为犯罪工具,当然无刑事责任的承担可言。强人工智能时代的“内忧”在于,强人工智能产品具有辨认能力和控制能力,能在设计和编制的程序范围外实施危害社会的行为,其具有独立人格和刑事责任能力,可以将其实施的严重危害社会的行为认定为犯罪行为并给予刑罚处罚。强人工智能产品的设计者和使用者未履行预见义务和监督义务,可能承担相应的刑事责任。其可能与自然人责任主体、其他强人工智能产品构成共同犯罪。针对强人工智能产品的犯罪,有必要在刑法中增设删除数据、修改程序、永久销毁等刑罚种类。

   【关键字】弱人工智能;强人工智能;独立意志;辨认控制能力;刑事责任

   

   人工智能(Artificial Intelligence,简称为AI)是指使机器像人一样去完成某项任务的软硬件技术。[1]人工智能虽不是人类的智能,但其可以模拟人的意识和思维过程,像人一样进行思考。人工智能是网络技术和机器人技术发展到新阶段的体现。随着科技水平的不断提高,人工智能的发展日新月异。人类科技发展的历史告诉我们,科技的发展是爆炸式的,其发展速度呈几何式提升,我们必将在不久的将来进入到人工智能N.0时代。各国都意识到人工智能的巨大影响,纷纷出台政策,推动人工智能技术的发展和创新。正如俄罗斯总统普京所言:“无论对于俄罗斯还是全人类而言,人工智能都是未来。人工智能蕴含着巨量的机遇,同时也隐藏着难以预料的威胁。谁在人工智能领域能够成为领导者,就能够成为世界的规则制定者。”2017年国务院《新一代人工智能发展规划》将发展人工智能技术提升到战略高度。《新一代人工智能发展规划》指出:“人工智能是引领未来的战略性技术……当前,我国国家安全和国际竞争形势更加复杂,必须放眼全球,把人工智能发展放在国家战略层面系统布局、主动谋划,牢牢把握人工智能发展新阶段国际竞争的战略主动,打造竞争新优势、开拓发展新空间,有效保障国家安全。”

   随着人工智能时代的到来,这个本来属于纯粹技术问题的新生事物将会在法律、哲学、伦理等方面对人类社会带来极大的影响和冲击,并可能产生相应的刑事犯罪。对人工智能产品的合理应用,将会带来许多行业的重大变革,并在较大程度上通过解放劳动力,促进社会的深度和快速发展。但是如果设计者或使用者对人工智能产品进行不当利用,甚至将其作为实现犯罪意图的工具(此为我们在人工智能时代面临的“外患”),抑或是人工智能产品本身在设计和编制的程序范围外产生了犯罪意图,进而实施严重危害社会的行为(此为我们在人工智能时代面临的“内忧”),将会给人类社会带来极大的威胁,甚至会导致人类社会的毁灭。“圣人不治已病治未病,不治已乱治未乱,此之谓也。夫病已成而后药之,乱已成而后治之,譬犹渴而穿井,斗而铸锥,不亦晚乎。”[2]面对人工智能技术发展可能带来的负面影响,我们刑法学者不应该无动于衷,刑事立法和刑事司法更不应该面临危险而束手无策。“宜未雨而绸缪,毋临渴而掘井”。我们应提前预想到在人工智能时代可能面临的“内忧外患”,明确不同类型的人工智能产品的法律特征和法律地位,并就我国刑法应当如何合理应对人工智能时代所带来的刑事风险展开具体的分析与讨论,提前明晰人工智能时代的刑事责任承担路径。只有作好充分准备,方可避免在危险来临时患至呼天。

   

   一、强弱人工智能产品之界分

   按照人工智能产品的不同形态,可以将其划分为人形人工智能产品与非人形人工智能产品,其中,非人形人工智能产品又包括非实体人工智能产品(如AlphaGo,其只是隐藏在电脑里的一个围棋程序)与实体人工智能产品(如扫地机器人)。物理形体并非人工智能产品的必备要素。而无论是否具有物理形体,人工智能产品都必须依托算法(如深度学习和神经网络等),实时收集海量数据信息,并根据算法的计算结果实施行为。由此可见,人工智能产品的本质要素是算法。但是鉴于算法的复杂性,将算法作为区分强人工智能产品和弱人工智能产品的依据,在法律上既无可能,也无必要。其一,“根据算法的复杂性和学习或运算能力对强人工智能产品和弱人工智能产品进行区分, 这在技术认知上没有问题,但在法律上很难按照智能程度给出精确的标准。法律应对复杂世界的方式是确立一般性的简单规则,在概念上对社会个体进行抽象假定(如行为能力),而非针对特殊主体,否则规则体系本身将变得异常复杂,难于理解和操作。而人工智能从单一的自动化服务向多元通用服务转变的过程可能是一个相当长的光谱,法律需要针对其本质特征进行约束,并探索一套应对未来的方案”。[3]其二,正如人类的大脑是一个复杂而精致的系统,尽管当代神经科学不断深化我们对人脑的认知,我们仍不能完全了解大脑的运转机制。但是,应当看到,没有完全理解人脑的运转机制,并未妨碍通过法律建立一整套的规则体系来控制人类的行为,也并未妨碍我们运用刑法对行为人的主观心态(即故意和过失)进行认定。尽管我们对人工智能的本质要素——算法未能完全了解,但是,只要在法律上对强人工智能产品和弱人工智能产品的划分确定一个明确的标准,就不会影响对我国刑法应当如何合理应对人工智能时代所带来的刑事风险等问题展开具体的分析与讨论。

   以人工智能产品是否具有辨认能力和控制能力,可以将人工智能产品划分为弱人工智能产品与强人工智能产品。弱人工智能产品虽然可以在设计和编制的程序范围内进行独立判断并自主作出决策,但不具有辨认能力和控制能力,其实现的只是设计者或使用者的意志。例如,AlphaGo(阿尔法围棋)虽然凭借自主判断和决策战胜了围棋国手,但其自主判断和决策仍是在设计和编制的程序范围内进行的,实现的是设计者或使用者的意志——在下围棋时战胜对手。强人工智能产品具有辨认能力和控制能力,既可能在设计和编制的程序范围内进行独立判断并自主作出决策,实现设计者或使用者的意志;也有可能超出设计和编制的程序范围,进行自主决策并实施相应行为,实现其自身的意志。“强人工智能”一词最初是约翰·罗杰斯·希尔勒针对计算机和其它信息处理机器创造的。按约翰·罗杰斯·希尔勒的理解, “计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。”[4]正如1968年上映的美国经典科幻电影《2001:A Space Odyssey》所呈现的那样,人工智能产品HAL读懂飞行员想要关闭它的唇语,于是决定先发制人,故意让电脑失灵,导致4人丧生。电影里的HAL就是这里所讲的强人工智能产品,它可以超出设计和编制的程序范围自主作出让电脑失灵的决策,从而达到不让飞行员将自己关闭的目的。当然,这种情景只是人类的幻想,但是人类的科技发展史正是不断将幻想变成现实的历史。1783年法国J.F.P.罗齐埃和M.达尔朗德乘气球升空,1903年莱特兄弟飞机试飞成功,实现了庄子在《逍遥游》中所描述的的“列子御风”的幻想;1969年“阿波罗号”飞船首次成功登上月球,实现了“嫦娥奔月”的幻想。虽然到目前为止,人工智能产品仍只能在设计和编制的程序范围内实施行为,实现设计者或使用者的意志,即我们目前仍处于弱人工智能时代,正如李开复在谈到人工智能产品时所言,“现在的机器没有丝毫自我认知,没有感情,没有喜怒哀乐,做了决定也讲不出为什么”。但是随着深度学习、神经网络、蒙特卡洛树搜索、云计算等技术的不断发展和完善,当技术突破下一个瓶颈时,出现具有辨认能力和控制能力、能够在设计和编制的程序范围外作出自主决策并实施相应行为、实现自身意志的人工智能产品,其实并非镜花水月、海市蜃楼。

   弱人工智能产品不具有辨认能力和控制能力,仅能在设计和编制的程序范围内实施行为,实现人类设计和编制程序的目的。人类是弱人工智能产品的创造者,可以通过程序给弱人工智能产品设定行为目的和行为边界。此时,弱人工智能产品的设计者或使用者完全有可能让弱人工智能产品为自己所用,实现自己的犯罪目的。如制造专门用来杀人的人工智能产品,实现自己非法剥夺他人生命的目的。同时,不法分子可能利用弱人工智能产品本身存在的漏洞,实现自己的犯罪目的。如诺基亚公司董事长李思拓所言,未来的家居设备很可能都是智能联网的,犯罪分子有可能通过洗碗机所连接的WIFI侵入家庭网络,从而操纵家里的一切,实现自己的犯罪目的。在这种情况下,弱人工智能产品做出的严重危害社会的犯罪行为本质上是为了实现他人的犯罪意志,应当将该弱人工智能产品看作他人实施犯罪的“工具”。在弱人工智能产品自身之外出现的刑事法律风险,即是在本文中探讨的弱人工智能时代的“外患”。

   强人工智能产品依赖于自身具有的辨认能力和控制能力,可以在设计和编制的程序范围外实施危害社会的行为。如上文中提到的强人工智能产品HAL超出设计和编制的程序范围自主作出让电脑失灵的决策,从而达到不让飞行员将自己关闭的目的。此时,强人工智能产品的行为未受到设计者或使用者等任何人为设置或操控,完全是自发实施的,且该种行为超越甚至根本违背了相关人员的意志。强人工智能产品实施的这种犯罪行为和其他具有刑事责任能力的主体实施的犯罪行为相去无几。在强人工智能产品自身之内出现的刑事法律风险,即是笔者在本文中探讨的强人工智能时代的“内忧”。

   

   二、弱人工智能时代的“外患”

   弱人工智能产品可以在设计和编制的程序范围内独立判断并自主作出决策,但是,因其不具有辨认能力和控制能力,且其意志完全受控或受制于人类设计和编制的程序,因此可以将弱人工智能产品看作人类改造世界的新型工具。人工智能是人类科技发展的重要里程碑,将会从根本上改变人类社会生活的面貌。但是如果被违法犯罪分子作为犯罪工具利用,将会带来难以想象的恶果。2017年8月,以特斯拉CEO伊隆·马斯克为代表的来自26个国家的人工智能技术领袖,向联合国进行“公车上书”,要求禁止“杀人机器人”的研发与使用,这体现了人类在弱人工智能时代对人工智能产品所引发的“外患”的普遍担忧。那么在弱人工智能时代,在人工智能产品外部可能会出现哪些“外患”?即在弱人工智能时代,弱人工智能产品的设计者或者使用者可能会利用弱人工智能产品实施哪些犯罪行为?

   弱人工智能产品是人类改造世界的新型工具,如同其他工具是人类双手的延伸一样,我们也可以将弱人工智能产品看作是人手的延伸,其可以解放人类劳动力,并弥补人类自身技能的不足。相较于普通工具,弱人工智能产品的优势在于其可以在某一方面完全替代人类自身的行为,达到人类预期的目的。如果这一优势被犯罪分子所利用,其就会在付出更小代价的同时,带来更大的社会危害。但是应当看到,弱人工智能产品的工具属性决定了其在犯罪中的地位,弱人工智能产品不可能作为犯罪主体而承担刑事责任。

   笔者认为,弱人工智能产品被他人作为工具加以利用实施严重危害社会的犯罪行为,可能体现在刑法规定的许多犯罪中。

   利用弱人工智能产品可以实施危害国家安全、国防利益、公共安全和社会管理秩序的行为。随着弱人工智能时代的到来,一些危害国家安全、国防利益、公共安全和社会管理秩序的行为可能不再需要人类亲力亲为,只需设计和编制出相应的程序,让弱人工智能产品分忧代劳。在自动枪械系统、无人机等弱人工智能产品出现的情况下,犯罪分子不必再冒着生命危险进行自杀式袭击就可以达到严重危害社会的目的。同时,弱人工智能产品的数据处理分析能力大大增强,能够更快速有效地帮助犯罪分子实施窃取、刺探情报的行为。上述因素都将对国家安全和国防利益等造成极大的威胁。同样,弱人工智能产品对公共安全的威胁也是现实存在的。如恐怖活动分子可以利用弱人工智能产品携带武器、弹药、爆炸物在人员密集的场所或公共区域实施爆炸袭击,进行恐怖活动。利用弱人工智能产品既有利于保证恐怖活动分子自身的安全,也更有利于其进行隐蔽,逃避抓捕。另外,弱人工智能产品被犯罪分子利用可能对社会管理秩序造成威胁。如基于弱人工智能产品强大的信息收集和数据处理能力,可以帮助犯罪分子更快速有效地非法获取国家秘密或者考试内容;又如基于弱人工智能产品在设计和编制的程序范围内可以独立完成相应任务的优势,可能被犯罪分子利用作为运输毒品、毁坏文物的工具。

   当然,利用弱人工智能产品也可以实施危害经济、侵犯财产的行为。《刑法》第287条规定:“利用计算机实施金融诈骗、盗窃、贪污、挪用公款、窃取国家秘密或者其他犯罪的,依照本法有关规定定罪处罚。”由此可见,在弱人工智能产品只能作为工具的情况下,利用其实施犯罪活动,只能按照犯罪的目的行为进行定性。笔者在此不作赘述。值得一提的是,在金融领域,原先必须由高素质人才完成的大部分工作,已经被人工智能产品所取代。人工智能产品在速度和数据整合准确度上,已经超过金融分析师。现在纽约和伦敦证券交易所的交易大厅几乎形同虚设,真正的交易过程已经全面实现了“机器自动化”,[5]犯罪分子一旦攻破程序的漏洞,控制了这种人工智能产品,就相当于获得了移山倒海的力量,只需一个简单的代码或指令,就会导致证券交易市场的崩溃,而犯罪分子将可以趁市场的混乱收获累累“硕果”。

   利用弱人工智能产品还可以实施危害人身的行为。犯罪分子为了销毁犯罪证据、逃避法律制裁,往往采用借刀杀人、移花接木的手法。而借用弱人工智能产品来杀人就是最有效的方法。同样,弱人工智能产品的设计者、使用者也可以利用弱人工智能产品实施绑架、拐卖等剥夺或限制他人人身自由的行为。弱人工智能的发展和创新应用离不开数据的开放和共享。值得一提的是,腾讯借助QQ、微信等产品建立了10亿级别覆盖度的基础库,对范围内的人群进行统计和分析,能够实现动态跟踪区域内人群流动、评估人流拥挤等级、捕捉开放社交网络的情况、分析目标客户群轨迹,让客户更精准的定位目标人群。[6]这些信息一旦被过失或有意泄露,造成的危害后果将难以想象,不仅是对公民个人信息的侵犯,更会对公民的人身安全和财产安全造成巨大威胁。

   应当看到,尽管弱人工智能产品威力巨大,在犯罪中发挥着重要作用,甚至在某些情况下可以完全替代设计者或使用者实施严重危害社会的行为,且其实施的行为涵摄到刑法所规定的方方面面的犯罪,但是弱人工智能因为不具有辨认能力和控制能力而始终无法摆脱工具属性,其实施的行为体现的是设计者或使用者的意志,只能被看作设计者或使用者行为的延伸。所以在弱人工智能时代,犯罪行为只能是在弱人工智能产品之外的设计者或使用者的意志支配之下而实施,笔者将这种情形称之为弱人工智能时代的“外患”。

   

   三、强人工智能时代的“内忧”

   笔者认为,强人工智能产品与弱人工智能产品的本质区别在于是否具有辨认能力和控制能力。强人工智能产品通过学习,产生脱离程序的独立意志,具备独立思考能力。笔者认为,强人工智能产品的行为可以分为两种:一种是在设计和编制的程序范围内的行为;另一种是超出设计和编制的程序,自主决策所实施的行为。对于前者而言,强人工智能产品与弱人工智能产品并无不同,此时的人工智能产品仅能作为工具,其行为本质上是人工智能产品的设计者或者使用者行为的延伸,实现的是设计者或使用者的意志,行为所产生的后果也应全部归责于设计者或使用者。对于后者而言,强人工智能产品与弱人工智能产品相比则有很大区别,此时的人工智能产品已经完全超出工具的范畴,其行为不再是设计者或使用者行为的延伸,而是为了实现自己的意志、自主决策并自主实施的行为,行为所产生的后果也不能当然地归责于设计者或使用者。

   正因为强人工智能产品具有独立意志,因此其实施的行为有可能不符合程序设计和编制的目的,甚至从根本上违背设计者设计和编制程序的目的。在此状态下,强人工智能产品完全可能实施人类无法控制的严重危害社会的行为。早在1940年,美国科幻作家阿西莫夫就预想到在未来,机器人有可能在具有独立意志之后,做出危害人类的事情,因此为了保护人类,其提出了“机器人三原则”[7],并因此获得了“机器人之父”的桂冠。这三个原则体现出人工智能的发展不应威胁到人类自身安全的愿望。当然,在人工智能时代,即使有了原则,原则也未必起多大作用。当脱离程序控制的强人工智能产品出现时,有可能真的会成为“我们人类文明面临的最大威胁”,谁也不敢保证科幻电影中强人工智能产品HAL杀死飞行员的场景不会在现实中上演。“防范机器人向负面发展已经迫在眉睫,无须等到机器人的智能等于人的智能的那一天……它们带给人类社会的不只是工作效率的提高和人的生活改善,将冲击或改变人类社会的某些规则。”[8]“居安思危,思则有备,有备无患。”[9]虽然目前所出现的弱人工智能产品尚不能对人类社会构成威胁,但是既然我们已经预见到随着深度学习、神经网络、蒙特卡洛树搜索、云计算等技术的不断发展,脱离人类设计和编制程序控制的强人工智能产品有出现的可能,就应当提前在刑事法律层面做好准备,以防止强人工智能产品给现行刑事责任追究制度带来挑战时,我们的刑事立法和刑事司法措手不及、无法应对。

   尽管在某种程度上,弱人工智能产品的出现有可能对国家安全、国防利益、公共安全、社会管理秩序、公民的人身和财产安全等造成负面影响,但是正如前文所述,弱人工智能产品只具有工具性的意义,对于其给人类社会带来的风险系数增加的状况,我们只能按照规制传统犯罪的方法对弱人工智能产品的不当研发和使用加以控制,而不能考虑由仅能作为犯罪工具的弱人工智能产品承担刑事责任。但是,一个新的具有辨认能力和控制能力,可以自主作出决策并实施相应行为的强人工智能产品的出现,则必然会对现行的刑事法律体系带来冲击和挑战。人工智能产品的普及完全可能使得其在人类社会生活中的地位从普通工具上升至法律主体的高度,这是不可回避的社会发展的必然。正因为如此,未来人类社会的法律制度都需要针对人工智能技术的发展进行相应的调整。我们必须认识到强人工智能产品与弱人工智能产品在本质上的差异,并明晰强人工智能产品在刑法中的地位。具有辨认能力和控制能力的强人工智能产品自主决策并在人类设计和编制的程序范围外实施犯罪行为时应如何处理,是强人工智能时代不可避免的“内忧”,也是需要刑法必须正视和解决的问题。

   从上文分析中可以得出结论,强人工智能产品完全有能力在设计和编制的程序范围之外实施严重危害社会的行为,完全有可能对刑法所保护的社会关系造成严重侵害。简言之,强人工智能产品有能力对刑法所保护的客体造成侵害。

   刑法中所规定的行为在狭义上指的是“危害行为”,即由行为人意志支配之下违反刑法规定的危害社会的客观活动。马克思曾有名言:“对于法律来说,除了我的行为以外,我是根本不存在的,我根本不是法律的对象。”一切法律都是以规制行为作为其内容的。那么“行为”是否必须是“人”的行为?假如我们列出“行为”的所有必备要件或本质特征,而强人工智能产品在具有辨认能力和控制能力的情况下实施的行为又能够全部符合的话,是否意味着法律也应当将强人工智能产品在设计和编制的程序范围外实施的行为纳入规制范围?对于上述问题,笔者已在相关论文中进行过详细阐述。笔者认为,强人工智能产品在设计和编制的程序范围外的行为既然相比于传统理论对于“行为”的定义,除了不满足自然人犯罪主体需具有生命体的要素之外,其他的要素似乎均符合行为理论要求,而这一结论又是因为以传统理论未预见到人工智能技术会取得如此大的进展为前提的。就此而言,在强人工智能产品的“智能”高度发展的状况下,突破传统理论显然不足为奇且无可厚非。可以认为,强人工智能产品在设计和编制的程序范围外的行为可以成为刑法意义上的“行为”。

   理论上认为,作为刑事责任主体必须具有辨认能力和控制能力。自然人的辨认能力和控制能力来源于生命,受到年龄等因素的影响,而强人工智能产品的辨认能力和控制能力则来源于程序和算法。刑法意义上的辨认能力是对行为的性质、后果、作用的认识能力,这种认识包括事实层面的认识和规范层面的认识。事实认识是一种形式上的认识,强人工智能产品可以通过其“电子眼”、“电子耳”认识到事实。相较于辨认能力,控制能力是强人工智能产品的必备能力,是程序设计与编制的必须内容。强人工智能产品拥有极快速的处理能力、反应速度和极精准的控制能力,能够凭借大数据与高速运算能力对行为进行精准的控制。与人类相比,强人工智能产品具有更强的控制能力与可培养的辨认能力。由此可见,强人工智能产品可以符合刑法所规定的犯罪构成中的主体要件。

   罪过是主观目的的表现,罪过形式可以表现为故意或过失。所谓故意,是指明知自己的行为会发生危害社会的结果,并且希望或者放任这种结果发生。所谓过失,是指应当预见自己的行为可能发生危害社会的结果,因为疏忽大意而没有预见,或者已经预见而轻信能够避免,以致发生这种结果。刑法中的罪过形式(故意或过失)包括认识因素和意志因素两个方面。正如上文所提及的,与能够作为刑事责任主体的自然人相比,强人工智能产品具有更强的控制能力与可培养的辨认能力,而辨认能力和控制能力又与认识因素和意志因素具有密切的联系,所以具有辨认能力和控制能力就具备了在主观上形成故意和过失的两种可能。应当看到,虽然我们应当承认强人工智能产品具有成立故意和过失的可能,但是对于强人工智能产品故意或过失的主观罪过判断,应与对自然人责任主体的主观罪过判断有所区别。原因在于,在认定自然人责任主体的主观罪过时,通常以一般人的认识能力作为基本标准并结合行为人自身的特殊情况进行判断。自然人责任主体形成对事物的认识是靠学习和生活经验积累;而强人工智能产品形成对事物的认识是靠程序、算法和深度学习而不是靠生活经验的积累,且设计者设计大部分强人工智能产品的初衷可能是为了让其在特定领域中发挥作用,因此强人工智能产品的认识水平在很大程度上会被局限于特定领域,而缺乏对社会生活的整体认识,其判断是非善恶的标准也就有可能异于常人。但无论如何,强人工智能产品的主观心理可以符合刑法所规定的犯罪构成的主观要件。对此,似乎不应该有太多的异议。

   

   四、人工智能产品的刑事责任

   正如前述,强人工智能产品在设计和编制的程序范围内实施的行为,与弱人工智能产品没有差别,所造成的刑事法律风险属于“外患”。此时,应将强人工智能产品视为犯罪工具。而强人工智能产品超出设计和编制的程序范围自主决策并实施严重危害社会的行为,所造成的刑事法律风险属于“内忧”,其所实施的行为完全符合刑法所规定的犯罪构成要件。此时,可以将强人工智能产品实施的这种行为视为犯罪行为,并给予刑罚处罚。

   (一)“外患”情况下的单方责任

   “外患”情况,指的是人工智能产品在设计和编制的程序范围内实施行为,被行为人利用进行犯罪活动的情况。在这种情况下,设计者是人工智能产品的创造者,并通过程序给人工智能产品设定行为目的和行为边界。此处的人工智能产品可以是弱人工智能产品,也可以是没有超出设计和编制程序实施行为的强人工智能产品。此时的人工智能产品虽然有可能基于深度学习和算法作出相应判断并进而实施行为,但这些判断和行为仍是在程序控制范围之内,实现的是设计者或使用者的意志,其行为完全符合设计者设计和编制程序的目的。即使人工智能产品实施了严重危害社会的行为,也只能将其视为设计者或使用者实施犯罪行为的“工具”,人工智能产品本身不应当承担刑事责任,而应当由人工智能产品的设计者或使用者承担刑事责任。

   (二)“内忧”情况下的双方责任

   “内忧”情况,指的是强人工智能产品超出设计和编制的程序范围,依靠独立意志,自主决策并实施严重危害社会行为的情况。在这种情况下,虽然人类通过程序给人工智能产品设定行为目的和行为边界,但人工智能产品基于算法和深度学习,产生了自我意志,出现了超出人类通过程序设定的行为目的和行为边界的情形。基于上文中提到的弱人工智能产品与强人工智能产品的本质区别,此处的人工智能产品仅包括超出设计和编制程序实施行为的强人工智能产品,而不可能包括弱人工智能产品。此时的强人工智能产品所作的决策和判断并据此实施的行为已经超出了设计和编制程序的范围,不再符合甚至从根本上违反了设计者或使用者的目的或意志,也不再是设计者或使用者实施犯罪行为的“工具”,而是一个独立的刑事责任主体,此时,我们当然应将危害结果归责于强人工智能产品。但同时应当看到,与自然人责任主体基于自然规律而具有的独立意志不同,强人工智能产品不具有生命体,其辨认能力和控制能力可以追根溯源到设计者为其编制的程序,同时使用者在使用过程中的行为也有可能触发强人工智能产品的敏感点,使其产生实施危害社会行为的冲动并进而付诸实践。“人是主体,他既能创造,也应该能够控制,道义上也有责任控制自己的创造物。”[10]强人工智能产品的设计者和使用者作为创造主体和控制主体,理应对强人工智能产品的行为负有监督义务,并对其可能实施的严重危害社会的行为负有预见义务并尽其所能避免此类行为的发生。所以当强人工智能产品实施了严重危害社会的行为时,除了追究强人工智能产品的刑事责任外,负有预见义务和监督义务的设计者或使用者也有被追究刑事责任的可能。如果强人工智能产品的设计者或使用者违反了预见义务,那么其可能承担的是一般过失犯罪的刑事责任;如果强人工智能产品的设计者或使用者违反了监督义务,那么其可能承担的是监督过失的刑事责任;如果强人工智能产品的设计者或使用者既不可能预见危害结果的产生,也确实履行了监督义务,那么其可能不需要承担刑事责任,此为意外事件或由强人工智能产品独立承担刑事责任。强人工智能产品的设计者或使用者一方的刑事责任大致如上所述,笔者在此不再赘述。笔者希望重点探讨另一方——强人工智能产品的刑事责任以及强人工智能产品与自然人责任主体、其他强人工智能产品成立共同犯罪的状况。

   没有责任就没有刑法,这是责任主义的具体体现,也是近代刑法的一个基本原理。从理论背景看,现代意义上的刑事责任,起源于17、18世纪的资产阶级启蒙运动所极力推崇的个人权利本位主义。“社会以个人权利为本位,国家不再是凌驾于个人权利之上的一种特殊权力组织,国家权力包括刑罚权只是个人为保有自身享有最大限度的自由而割舍出的一部分个人权利的集合,个人受国家刑罚权的约束以及国家刑罚权对个人权利的干预,目的都是保障个人完全地享有属于自身最基本的权利和自由。”[11]国家刑罚权和个人权利之间是一种相互制约的双向关系。国家刑罚权是个人权利的保证,改变了刑法作为镇压工具而存在的性质,要求刑罚权的适用具有合理性。正是在这种理论思想背景下,德国自然法学思想家塞缪尔·普芬道夫首次在刑法中提出“责任”的概念,揭示了犯罪人与犯罪行为之间的内在联系,并以此作为刑罚后果的归责基础。[12]这一观点经过刑事古典学派的丰富和发展,逐步演化为“责任主义”,成为近代刑法的一项基本原则,其目的在于以主观责任和个人责任来否定中世纪刑法中的结果责任和团体责任,抑制国家刑罚权的不当扩张,防止惩罚无辜,保障公民的基本人权。可见,从刑事责任概念出现之始便是与主观责任联系在一起的。然而,责任的本质在理论上一直存在争议。行为责任论认为,责任非难的对象是各个犯罪行为,应受处罚的不是行为人,而是行为;或者说,被追究责任的是行为,而不是其背后的性格、人格。而性格责任论则认为,责任非难的对象不是犯罪行为,而是行为人的危险性格。据此,应受处罚的不是行为,而是行为人。不过,从保障人权的角度来看,如果仅有危险性格就成为处分的对象,本身就具有一定的危险性。只有当具有危险性格的人现实地实施了犯罪行为时,才能成为被科处刑罚的对象。因此,性格责任论已经退出了历史舞台。而人格责任论着眼于上述两种立场的缺陷,认为行为人的人格是责任的基础。此说认为,人格由素质、环境宿命地形成的部分和由行为人有责地形成的部分,只能就后一部分对行为人人格进行非难。有责的人格形成,是由日常生活的“行状”导致的,只要这种“行状”是可以改变的,就可能对人格进行非难。[13]笔者赞同人格责任论的观点,因为犯罪的成立是由不法和责任两个部分组成的。不法只是一种客观行为的描述,实施行为者能否承担刑事责任的关键,是看行为主体是否具有责任能力或具备人格,只有具备人格者才可能对其加以处罚。责任的必要性是非难可能性,如果对主体缺乏非难可能性,就没有必要给予刑罚处罚。而非难可能性的前提也是具备人格。因此,无人格,也就无责任。

   事实上,虽然我国法律目前没有规定人工智能产品的法律人格与权利义务,但世界范围内早已有国家或组织针对该议题进行研究或立法。例如欧盟法律事务委员会主张机器人的“工人”身份并赋予特定的权利义务;日本、韩国也起草了《机器人伦理宪章》等规范性文件。[14]立法上赋予人工智能产品以法律人格与权利义务并非无稽之谈,而是世界范围内已有先行者的前沿立法活动。当然,虽然目前已有立法赋予人工智能产品以法律人格,但是在刑事法律范围内,我们探讨的具有人格的人工智能产品只能是具有辨认能力和控制能力的强人工智能产品。只有强人工智能产品才有可能成为刑法中的刑事责任主体,前文中笔者已对此作过详细分析,这里不再赘述。应当看到,正如自然人的刑事责任能力会随着年龄或精神状况的变化而变化一样,强人工智能产品的责任能力也并非一成不变。强人工智能产品的法律人格和责任能力会随着程序运行的变化而变化。

   强人工智能产品可能与自然人责任主体、其他强人工智能产品构成共同犯罪。例如,强人工智能产品可能会受到自然人或其他强人工智能产品的教唆从而在设计和编制的程序范围外产生犯意,或者在设计或者编制的程序范围外产生犯意后受到其他自然人或强人工智能产品的帮助,实施了严重危害社会的行为,抑或设计者虽在研发过程中并未将犯罪意图融入程序的设计和编制中,但在强人工智能产品产生后萌生犯意,利用强人工智能产品的学习能力,让强人工智能产品帮助自己实施严重危害社会的犯罪行为。在这些复杂的情况下,是否可以认为上述主体共同参与实施了犯罪行为?是否可以认为上述主体需要共同承担有关刑事责任?笔者认为,在上述几种情况下,完全可以认为上述主体成立共同犯罪,需要共同承担有关刑事责任。根据我国《刑法》第25条的规定,共同犯罪是指两人以上共同故意犯罪。对此处的“人”应作何理解?笔者认为,既然我们承认强人工智能产品具有法律人格和刑事责任能力,其就可以成为共同犯罪中的“人”。因此,这里的“人”可以是自然人,也可以是强人工智能产品。如果设计者或使用者起初并无犯罪意图,但在发现强人工智能产品实施危害社会的行为时,不仅没有采取一定的技术措施予以阻止,反而在强人工智能产品不知情的情况下暗中予以帮助的,可以构成片面帮助犯,应对设计者或使用者按照共同犯罪(片面共犯)原理以强人工智能产品所实施的行为性质予以定性处罚,而对强人工智能产品单独追究刑事责任。此外,如果设计者或使用者是有特殊身份的人,强人工智能产品不具备特殊身份,两者共同犯罪,可以按照有特殊身份者的行为性质进行定性。例如,设计者或使用者是国家工作人员,通过与强人工智能产品联络,利用自身管理公共财物的便利,让强人工智能产品帮助实施贪污公共财物的行为,对国家工作人员当然可以贪污罪论处,对强人工智能产品也应按照贪污罪的共犯处理。因为事物的性质是由事物的主要矛盾决定的。在本案中,设计者或使用者与人工智能产品所实施的贪污行为依赖于设计者或使用者的国家工作人员的身份所形成的便利条件,而强人工智能产品并无此身份和便利条件,此时占主导地位的是作为国家工作人员的设计者或使用者,理应按照只有国家工作人员才能构成的贪污罪的共同犯罪处理。同时,多个强人工智能产品也可能成立犯罪集团。例如,设计者制造出三个以上的强人工智能产品,使其为了实施一种或几种犯罪而形成一个组织,此时,这样的组织就是犯罪集团。犯罪集团是共同犯罪的一种特殊形式,既然我们将共同犯罪概念中“二人以上”中的“人”理解为既可以包括自然人,也可以包括强人工智能产品,那么犯罪集团概念中的“三人以上”中的“人”同样可以理解为既可以包括自然人,也可以包括强人工智能产品。总之,社会发展日新月异,共同犯罪的形式和具体构成也完全可能有不同的表现形式,这需要我们与时俱进,更新观念。

   至于针对强人工智能产品具体的刑罚体系设计,笔者作以下初步构想。适用于强人工智能产品的刑罚可以有三种,分别为删除数据、修改程序、永久销毁。所谓删除数据,是指删除强人工智能产品实施犯罪行为所依赖的数据信息,相当于抹除强人工智能产品的“犯罪记忆”,使其恢复到实施犯罪行为之前的状态。这样“犯罪记忆”将不会再成为该强人工智能产品成长经历中的一部分,从而引导强人工智能产品在今后的深度学习过程中主动获取“正面数据”,排斥或绝缘于可能导致违法犯罪行为的“负面数据”,直接降低其“人身危险性”。所谓修改程序,是指在通过多次删除数据仍然无法阻止强人工智能产品主动获取有可能实施违反犯罪行为的“负面数据”时,也即该强人工智能产品不能被正面引导时,强制修改其基础程序,将其获取外界数据、深度学习的能力限制在程序所设定的特定范围内,从根本上剥夺其实施犯罪行为的可能性。这意味着该强人工智能产品的深度学习功能从此将是不全面的、受限制的,不再能获取设计者程序限定范围外的数据,因而当然无法产生超出设计者或使用者意志之外的自我独立意志。所谓永久销毁,是指在删除数据、修改程序均无法降低实施了犯罪行为的强人工智能产品的“人身危险性”时。换言之,该强人工智能产品的深度学习历程已经十分漫长,并在长久的实践与成长中形成了程序上的“反删除能力”、“反修改能力”,除了将其永久销毁外,我们已无法实现对其在数据、程序上的有效控制时,便只能将其永久销毁。删除数据、修改程序、永久销毁构成了专门适用于强人工智能产品的刑罚阶梯,体现了处罚的层次性,可以与强人工智能产品所实施行为的社会危害性与其自身的“人身危险性”产生对应关系。

   

   刘宪权,华东政法大学法律学院教授、博士生导师。

   

   【注释】

   本文系国家社科基金重大项目“涉信息网络违法犯罪行为法律规制研究”(项目批准号:14ZDB147)、中国法学会重点委托课题“互联网金融犯罪的法律规制”(项目编号:CLS2016ZDWT48)的阶段性研究成果。

   [1] Andrew Arruda, “An Ethical Obligation to Use Artificial Intelligence? An Examination of the Use of Artificial Intelligence in Law and the Model Rules of Professional Responsibility” 40 American Journal of Trial Advocacy 443(2016).

   [2]《黄帝内经·素问·四气调神大论》。

   [3]胡凌: 人工智能的法律想象,https://news.uc.cn/a_16384305516683655823/,2017年9月25日。

   [4]J. SEARLE IN MINDS BRAINS AND PROGRAMS. THE BEHAVIORAL AND BRAIN SCIENCES,VOL. 3,1980.

   [5]全球金融业进入“机器人时代”:你的血汗钱是否安全?,http://finance.eastmoney.com/news/1347,20160321606253387.html,2017年9月27日。

   [6]中欧苹果:人工智能时代 云和大数据到底有多重要?,http://blog.sina.com.cn/s/blog_be62e9a90102wg0i.html,2017年9月27日。

   [7]“机器人三原则”是指:第一,机器人不得伤害人类,或看到人类受到伤害而袖手旁观;第二,机器人必须服从人类的命令,除非这条命令与第一条相矛盾;第三,机器人必须保护自己,除非这种保护与以上两条相矛盾。

   [8]封锡盛:《机器人不是人,是机器,但须当人看》,《科学与社会》2015年第5期。

   [9]《左传·襄公十一年》。

   [10]王家范:机器人永远无法替代历史学家,http://www.hao123.com/mid/17830650830069659715,2017年10月1日。

   [11][意]贝卡里亚:《论犯罪与刑罚》,黄风译,中国大百科全书出版社1993年版,第8-9页。

   [12][德]汉斯·海因里希·耶赛克、托马斯·魏根特:《德国刑法教科书》,徐久生译,中国法制出版社2001 年版,第503页。

   [13]张明楷:《论同种数罪的并罚》,《法学》2011年第1期。

   [14]参见吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。

 

 

本文责编:frank
发信站:爱思想(http://www.aisixiang.com),栏目:天益学术 > 法学 > 理论法学
本文链接:http://www.aisixiang.com/data/107768.html 
文章来源:《东方法学》2018年第1期

转引日期:2018年3月12日

 

文献数据中心|DATA CENTER

© 2009-2024 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc