新一代人工智能具有自主学习适应能力,广泛应用于社会各领域,医疗领域是人工智能发展的重点,我国医疗人工智能企业占比达22%。
一、医疗人工智能提出的刑法问题
医疗人工智能即智能医疗,涵盖智慧医院管理、人工智能诊疗(包括人机协同的手术机器人,智能诊疗助手,人机协同临床智能诊疗包括智能影像识别、病理分型和多学科会诊等)、人工智能慢性病管理、人工智能药品开发和医药智能监管以及流行病智能监测和防控等。医疗人工智能引起的法律问题范围较广,有些与刑法无关如人工智能慢病管理相关法律问题,有些问题是传统刑法问题在人工智能应用环境下的新发展,可以在现行刑法范围内妥善解决,如泄露和非法利用患者的诊疗信息和隐私等。医疗人工智能主要给医事刑法带来以下问题:
第一,医疗人工智能的刑法地位问题。当前医疗人工智能在诊疗领域的应用主要是医学影像辅助诊断、临床辅助决策和机器人手术,表现出令人惊讶的精准、高效。
第二,医疗人工智能的正当性问题。患者知情同意是医疗行为特别是侵入性医疗行为具有正当性的前提,患者对医疗人工智能应用充分知情和同意使用,才能使人工智能辅助医疗行为具有正当性。医疗人工智能的“智能”来自算法和学习的数据,其诊疗决策过程和逻辑不同于医师的知识学习和诊疗过程,在当前及未来相当长时间内其分析和决策过程不具有可解释性,结论具有不可预见性。医疗人工智能以高概率为决策标准,其诊断和治疗方案是否适应特定患者存在疑问,发生诊疗错误的可能性不仅客观存在,而且会保持一定比例。医师认识医疗人工智能的以上特点向患者说明中面临诸多困难。
第三,医疗人工智能应用中医师的注意义务和注意能力问题。在认定医疗事故罪中,必须确定医师是否具有注意能力和违反注意义务。医疗人工智能应用会改变医师的注意义务范围,影响其注意能力,如何适应医疗人工智能的特点,合理确定医师的注意义务和注意能力,是需要研究的问题。
二、医疗人工智能的刑法地位
人工智能是否应被赋予犯罪主体或刑事责任主体地位,在刑法学者中形成了针锋相对的观点。持肯定观点的学者认为,“超出设计和编制的程序范围,在自主意识和意志的支配之下实施严重危害社会行为的智能机器人可以成为刑事责任主体”“可能和使用者构成共同犯罪”。
医疗人工智能具有人工智能的共性,不可能取得医疗主体地位,也不能成为医事犯罪的主体。除了前述理由,还可以从医疗人工智能发展状况与趋势中得出以上结论。我国《人工智能辅助诊断技术管理规范》将医疗人工智能系统限定为“计算机辅助诊断软件及临床决策支持系统”,但考虑到治疗人工智能已经在研究和应用中开展,以下讨论也限于疾病治疗领域的医疗人工智能。
(一)疾病诊断和临床决策领域
医学影像诊断人工智能不具有形成自主意识和意志的事实基础。目前医学影像诊断人工智能主要用于肺癌检查、糖网眼底检查、食管癌检查以及部分疾病的核医学检查和病理检查,处理过程分为影像的预处理和病灶定位、图像分割和特征提取、匹配和类聚,前两步都是按照预设程序进行,不涉及算法的自主学习即人工智能问题,只有第三步“匹配和类聚”由人工智能算法将特征向量映射为诊断结论。该算法非事先人为设定,而是算法程序对以往的大量医学影像及其结论进行学习、自适应形成的分析和判断标准,该标准是动态的,后续的学习会引起其变化。前述人工智能算法与医师的知识训练遵循不同的逻辑路径,后者以传统医学知识为基础,其推理过程严格依据医学知识和规律,而前者以影像和预设算法标准为基础,对所有的数字化后的影像特征数据进行概率统计,不直接依据医学知识和经验,是纯粹的数据信息处理。经过大数量级的影像数据处理、全面的特征量提取和匹配训练得到的人工智能算法可能具有比医师更强的规律发现能力,能发现某些未被传统医学注意的特征量与结论之间的联系,加之当前计算机信息系统具有强计算能力、高准确度和不知疲倦的运行能力,能够更客观、精确和高效地完成疾病诊断任务。
这类人工智能并不能发展出“自主意识和意志”。人工智能系统的功能完全由计算机硬件、算法和已学习的数据决定,其核心是算法;而算法由最初的程序设计和应用的影像数据和诊断结论绝对决定,无论形成的是何种算法,都是对后二者的映射。即使系统学习的影像和结论数据规模增大千万倍,也无法突破以上限制。以上算法所学习的数据具有专业性,不可能将非医学证据当作训练数据供算法学习,诊断结论是否被医师采纳的信息不是算法的学习、训练的数据,不具有引起所谓“自主意识和意志”选择性反应的数据基础。学习数据对算法的决定性影响还通过以下事实表现出来:人工智能偏向于对高发疾病有准确的诊断结论,对疑难疾病的诊断往往出现高错误率,原因是影响其算法形成的数据主要是常见疾病的数据。例如,在胰腺囊腺瘤的诊断中,浆液性囊腺瘤占比在80%以上,黏液性囊腺瘤不到20%,人工智能系统将所有的胰腺囊腺瘤患者诊断为浆液性,可以获得80%以上的准确率,这样的准确率在实际应用中毫无意义。
临床治疗方案辅助决策人工智能同样不具有自主意识和意志。以当前最成熟的IBM公司的Watson系统为例,医师将诊疗史、分期特征、转移位点、危重病情况输入系统,系统会给出最优、谨慎和不推荐等多个诊疗方案,供医师用于对比和调整自己的方案,该系统对乳腺癌、肺癌、结肠癌等多种癌症的诊断推荐方案与多学科医师会诊方案的一致率较高。
《人工智能辅助诊断技术管理规范》明确将前述两类医疗人工智能定性为辅助工具。该规范第3条规定:“应当由2名以上具有5年以上与开展人工智能辅助诊断技术相关专业临床诊疗工作经验的医师做出决定并出具诊断意见。由具有5年以上与开展人工智能辅助诊断技术相关专业临床诊疗工作经验的医务人员进行操作。”“人工智能辅助诊断技术为辅助诊断和临床决策支持系统,不能作为临床最终诊断,仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定。”未来辅助诊断人工智能可能会在更多的疾病诊断上提供更智能、更高质量的诊疗建议或推荐方案,甚至能够直接面向患者应用,但不会允许其脱离医师的控制,诊疗活动的主体仍然是医师而非诊疗人工智能。臆想未来医疗人工智能成为医疗行为主体,不仅没有事实和法律根据,而且会否定患者、医师及医疗机构三者之间的法律关系,使医疗人工智能应用脱离医疗领域,变为患者使用医疗人工智能产品进行自诊,从而不存在医疗主体和医事犯罪主体。这种变化违背医学和医疗实践发展规律,对社会、医疗行业和患者有害,不符合有益的人工智能的发展目标。
(二)治疗领域
当前疾病治疗领域的人工智能是手术机器人,具有其他机器人一样的法律性质。关于其法律地位医学界和法学界有不同的认识。医学界普遍认为“手术机器人是一种智能外科手术工具,借助精密的干预措施、本体结构和智能控制系统等技术的突破解放医师的手和眼,提高临床操作准确性和手术成功率”。
医疗机器人的发展实践表明其仅具有工具地位。医疗机器人应用于临床手术和辅助医疗领域,其中,外科手术机器人最复杂,而通用手术机器人如达芬奇机器人又是其中最成熟和复杂的机器人系统。无论哪种手术机器人都包含系统软件、硬件辅助设施和人机交互与显示单元等主要功能模块:1.系统软件根据术前术中的医学影像和定位装置确定的影像位置完成影像重构,通过人机交互与显示模块与医师交互进行手术规划,以及手术空间配准和定位控制;2.硬件设施进行医学影像采集、机器人定位和手术操作;3.人机交互与显示是医师获取前述影像、位置信息并向系统软件发出控制指令的通道和操作平台。主从式机器人由医师通过操作台控制前述硬件设施进行手术,如通用手术机器人达芬奇;自动式手术机器人由医师在术前完成手术规划,术中机器人自动完成手术操作而无需医师操控,如骨科手术机器人ROBODOC。手术机器人能超越人工手术的视觉、手工操作的限度,不受医师经验、疲劳度的影响,实现高精度、稳定性、灵活性手术;
(三)小结
医疗人工智能的未来发展方向是高度专业化、智能化,而不是产生“自主意识和意志”和成为医疗行为主体。无论从医学还是人工智能学分析,“有自主意识和意志”的医疗人工智能缺乏事实和科学依据,不符合有益、可控的医疗人工智能的发展目标,不符合医疗现代化发展的需要,也不为社会规范所允许。医疗人工智能与医师是特殊工具与应用主体的关系。医疗人工智能是医疗现代化进程中出现的智能医疗工具,既有优点也有不足。“人工智能不是人类,也没有人类的思维及情感,其做出的诊断及提出的诊疗策略是来源于大数据,来源于经验,给出的可能是客观的,最优化的建议,但在临床中,医师会跟患者及家属有情感上的沟通和交流,会根据患者具体情况给出婉转的解释或适合的治疗选择……人工智能医疗缺乏灵活性,不能因时、因地、因人、因情而区别对待。”
医疗人工智能改变了传统医疗活动,对医事犯罪的成立有实质性影响。化解医疗人工智能相关安全风险,不能采取对医疗人工智能系统本身追究刑事责任的方式,出路只可能是规制医疗人工智能研发、生产和使用者的行为,重点是规制医师使用医疗人工智能行为。由于医疗人工智能改变了医事犯罪的环境条件和医疗活动的内容和形式,医师使用医疗人工智能的行为不同于传统医疗行为,相应涉罪行为的刑事责任应有别于普通的医事犯罪,因此,医疗人工智能的刑法问题主要是医疗人工智能应用对医师刑事责任的影响。
三、医疗人工智能的正当性基础
(一)患者知情同意是医疗行为正当化的核心根据
医疗行为是有风险的业务活动,侵入性医疗行为即使成功也会给患者造成一定的损伤,形式上符合故意伤害等犯罪的特征,法律并非允许任何医疗行为。
撇开德日刑法学关于犯罪成立的“三阶层理论”的内部争论,医疗行为正当化根据主要包括三个方面:1.符合法律规定的业务行为;2.实现患者的最佳利益;3.患者知情同意。业务权说、诊疗目的说和社会相当性说依据第1类根据,主要理由是:医疗行为是出于医疗目的而非加害目的、符合医疗准则,是被法律允许的、社会接受(具有社会相当性)的业务权利行为,“医师乃是受到国家许可而执行医疗业务之人,医疗行为正当化的理由,并非来自病人的同意。医师的医疗行为,只要是从医学知识上足以达成医疗目的,且法律没有明文规定使用禁止者,就是受到允许的。医疗行为虽然有可能对病人身体组织造成侵害,但只要是需要的,都可以进行。”
患者知情同意是医疗行为正当化的核心根据,实现患者的最佳利益和遵守医疗相关法律规定及医事准则是基本依据,后二者补充和限制前者,实现对患者的优质医疗服务。
人工智能医疗是现代医疗活动的一种新发展,人工智能应用是实现更优质医疗服务的新技术手段,并未改变其医疗行为的根本性质,不应当动摇医疗行为的正当性基础,必须坚持患者知情同意原则,否则不能被评价为医疗行为;如果造成伤亡结果,就可能构成故意伤害罪或者过失致人重伤或死亡罪。
(二)医疗人工智能应用中满足知情同意条件面临的挑战
满足患者知情同意条件,需要医师充分说明告知,患者充分认知与有效承诺。有观点认为知情同意原则的适用与医师的说明无关,只要有被害人承诺,即可成立违法阻却事由,讨论告知义务反而是对医师“歧视性”的规定,违反平等原则。
由于医疗人工智能的特点,医师在履行说明告知义务时会遇到“知识黑洞”和其他导致难以充分说明的困难。
1.诊断与临床决策中的说明困难
一般而言,对诊断的说明通常是实体性的诊断发现和结论,如病理指标和确诊的病症等。如果采用新的诊断方式或技术且可能影响到诊断的准确性及患者其他权利的,医师就应当在诊断之前向患者说明“将要采取的诊断措施及其后果”等。
临床治疗方案辅助决策人工智能的运行原理与医学影像人工智能相同,医生存在相似的说明告知困难。由于医学数据具有不完全性,医师对学习数据的说明存在更大困难。首先,该类系统学习数据具有客观的不全面性。医学影像人工智能系统通过CT、X光和全玻片数字扫描设备直接获取影像数据,数据更标准,数据量更大,信息更全面,分析结论相对客观。而临床治疗方案辅助决策人工智能的训练数据受临床医师检查科目和记录信息的影响,数据质量和全面性程度较低,进而影响形成的算法。医师在训练和使用该系统时,对于应当输入哪些检查信息才能满足其数据分析的需要,内心并不确定。该系统算法是初始算法,大量医学知识及临床病例数据由自主学习形成,算法不具有医学上的可解释性,医师无从知晓其分析的所有数据指标,不可能向患者充分说明。其次,该系统学习的数据具有主观的不全面性。作为诊断对象的人与机器设备不同,不仅有客观的身体组织器官,还由感情、灵性等“精神”组成;影响人体生命、健康的除了身体机能的生化因素,还有人类生物学因素、社会与物质环境因素、心理行为因素等。对于病患,医师“有时能治愈,常常去缓解,总是去安慰”,治疗不可能只是冷冰冰的用药施术,医患之间的交流、安慰和鼓励等精神治疗贯穿医疗活动全过程,这些交流活动及其内容无法全面记录,并提供给临床决策辅助系统分析。“医学首先是人文的,而不是技术的……人是世界上最精密、复杂、敏感的生命体,同样的疾病在不同个体上表现迥异,一种疾病在同一个体上的不同阶段区别巨大。医学说到底是人学,而不是机械学、物理学,也不是生物学、细胞学和疾病学……人的问题必须靠人来解决,单纯依靠技术是行不通的。”
2.治疗中的说明困难
第一,对治疗效果的了解和说明困难。
当前我国临床手术中,包括达芬奇手术机器人在内的多种手术机器人多被评价为手术和预后效果更好,或者与人工手术无差别。
第二,对手术机器人运行风险了解和说明困难。
手术机器人是高度精密的机电设备,但其运行并非不出现故障。美国全国广播公司对2009-2018年美国食品和药物管理局MAUDE数据库中的不良事件报告进行分析,发现与达芬奇手术机器人相关的事件报告有2万多件,其中,超过2,000个不良事件被归类为伤害,274个被归类为死亡,近17,000个事件被归类为设备故障,既有轻微的,也有严重的,包括机器人手臂不受控制地走向错误的方向、绝缘层开裂和掉落进病人的身体里,以及电击和烧伤等。
第三,市场性行为影响医师向患者充分说明风险。
以达芬奇手术机器人为例,该系统价格昂贵,手术过程中要使用大量高价耗材和器械,手术费用很高。
综合以上,医疗人工智能还处在发展过程中,并没有消除安全风险,医师对这种新诊疗方式的疗效、操作风险缺乏充分的了解;同时存在利益关联等因素,影响医师向患者充分说明其风险,患者的决策障碍更大。如果医师不能对其充分说明告知,将实质性影响患者的知情同意,进而动摇人工智能辅助医疗行为的正当性基础。
(三)医疗人工智能应用中患者知情同意权的保障路径
医疗人工智能的核心价值是实现以患者为中心的、个别化的优质医疗,而不只是减轻医师工作负担,更不是让医师“下岗”,或者向患者提供“批量化、标准化”医疗服务,以实现更高的商业利益。将医师从繁重、重复的劳动中解放出来,是为了使其有时间精力去做医疗人工智能做不到、做不好的工作,实现医疗服务的升级。医疗人工智能应用必须保障患者知情同意,发展相适应的制度,解决前述医师充分说明告知困难。
关于医师说明义务的判断标准,理论上存在具体的患者标准说、合理的患者标准说、合理的医师标准说、双重标准说(折中说)等多种学说。
首先,我国应建立医疗人工智能疗效和安全风险的信息披露制度。国家卫生健康管理部门应当在促进医疗人工智能发展和监管其风险两方面发挥主要作用,应收集和公布医疗人工智能的诊疗效果和安全风险信息。前述《人工智能辅助诊断技术管理规范》第3条规定:“使用人工智能辅助诊断技术的医疗机构,应当建立数据库,定期进行评估,开展机构内质控工作,在完成每例次人工智能辅助诊断技术临床应用后,应当按要求保留并及时上报相关病例数据信息。”但是,该项报告义务的法律层级不高,强制力不足,影响了该制度作用的发挥。国外有关教训值得我国引以为戒。美国食品与药物管理局要求医疗机构报告机器人手术所导致的死亡及受伤事件的数据,但其无权强制要求提供,导致许多医院并不报告,只能部分揭示机器人手术的医疗风险。我国应当汲取其教训,将以上报告义务升级为法律义务,补充到《基本医疗卫生与健康促进法》等法律法规中,使该报告义务具有更强的法律强制力。此外,国家卫生健康监管部门应将这些病例数据进行分类、整理和分析,形成年度医疗人工智能白皮书向社会发布,及时公告医疗人工智能的诊疗效果、安全风险以及设备故障等信息,作为医师了解相关内容和向患者充分说明告知或者推荐给患者知悉的官方信息渠道。此外,医疗人工智能研发、生产和提供者最了解其产品或服务的优缺点,对其诊疗效果和安全风险有最深入、专业的知悉渠道,应当承担相应的法律义务,包括:及时向国家卫生健康监管部门和使用单位通报其产品或服务的诊疗效果和安全风险;对使用单位的相关医师开展必要的培训;解答与其产品或服务相关的技术和医学知识问题;不得采取不正当方式影响医师,使之违背患者最佳利益原则推荐医疗人工智能产品或服务等。违反以上义务要承担法律责任,触犯刑法的,应追究刑事责任。
其次,在前述信息披露制度体系下,医师直接或者间接提供了医疗人工智能辅助诊疗相关信息的,应认为履行了说明告知义务。医师应当向患者充分说明自己在业务知识和能力范围内了解的医疗人工智能疗效和风险信息,对自己不了解的官方公布的信息,应当向患者告知官方公布信息的获取途径,对于各种诊疗措施和方式的效果和风险应当尽可能全面说明告知。
具体而言,除了前文提到的说明内容,医师必须充分说明以下几方面内容:(1)本专业领域关于患者疾病诊疗的常规方法和方案及其效果和风险;(2)本人经历的医疗人工智能辅助诊疗实际案例体验;(3)本专业的全国性医疗学会组织关于医疗人工智能辅助诊疗效果及风险的评价;(4)本人在学习科研中掌握的关于医疗人工智能辅助诊疗效果及风险的病例和文献资料中的导向性结论;(5)国家卫生健康监管部门发布的本专业领域医疗人工智能疗效和风险的信息及其获取途径,其中包括但不限于以上监管部门的详细联系方式。需要注意的是,在推进医疗人工智能的使用上,医疗人工智能生产商与医疗机构及医师存在同向利益,为了防止生产商使用不正当的手段推介医疗人工智能,损害患者的利益,从维护患者最佳利益原则出发,当医疗机构、医师接受了医疗人工智能研发、生产、销售或者推销机构的各种形式的资助,或者涉及其他财务利益的,应当在向患者提供人工智能辅助诊疗服务前予以告知,否则可以认定为违反充分说明告知义务。
四、医疗人工智能应用中医师的注意义务与注意能力
医师严重不负责任,造成就诊人死亡或者身体健康严重损害后果的,构成医疗事故罪。医疗事故罪是业务过失犯罪,认定该罪必须确认医师是否违反了注意义务和具有注意能力。医疗人工智能应用改变了医疗活动的环境和条件,出现了医师难以认识或避免的后果,有必要分析其对医师注意义务和注意能力的影响,合理认定医师的法律责任。
(一)医疗人工智能应用中医师的注意义务
关于医疗事故罪的注意义务,理论和实践中存在不同观点。刑法学通说认为,注意义务包括结果预见义务和结果避免义务。“从设立注意义务客观性要求上说,就是‘避免结果发生’。”
1.医疗人工智能对“当时的医疗水平相应的诊疗义务”的影响
认定“与当时的医疗水平相应的诊疗义务”的关键是确定当时的医疗水平。日本刑事司法中将其称为“医疗水准”,是认定医疗过失的判断标准。日本最高裁判所昭和36年对东京大学附属医院输血致梅毒感染案的判决提到,凡从事人类生命健康管理业务者,与之业务性质相适应,要求负有防止危险的实际经验上必要的最善的注意义务,该注意义务的基准为诊疗当时的临床医学实践中的医疗水准。
目前医疗人工智能主要影响“学术上的医疗水准”,不具有改变“实践中的医疗水准”的现实意义,在其发展成熟并普及使用后,将提升医学实践的医疗水准,扩大医师注意义务的范围。根据前文分析,当前医疗人工智能的发展还处于学术研究和实验阶段,未达到成熟和普及程度。从医疗人工智能应用的规范化看,虽然我国制定了《人工智能辅助诊断技术管理规范》,但制定的时间不长,规定的内容较为原则,医疗人工智能应用规范尚不完善。因此,当前医疗人工智能发展只能影响学术上的医疗水准,而不足以改变实践中的医疗水准。医师使用医疗人工智能达到较高医疗水平的,医师的注意义务仍应按照传统方式下的医疗一般水准来确定;如果使用医疗人工智能加大了诊疗风险的,同样是按照该医疗水准来认定医师的注意义务。例如,医师使用达芬奇手术机器人进行妇科肿瘤手术的,应按照开腹手术的医疗水准来确定医师的注意义务,不因使用了手术机器人而降低其注意义务的基准。未来医疗人工智能技术会更先进,医疗人工智能应用会进入医疗规范和准则,在各地各级医院普及应用,不仅会提高医学上的医疗水平,还会提高实践中的医疗水平;在此情形下,医师的注意义务不再只看医师个人的实践经验和能力水平,医疗人工智能设备本身的智能水平也是考虑的内容。如果医疗人工智能设备提供了最优诊疗方案和不推荐方案,医生就应当对不推荐方案的医疗风险有注意义务,在人机协同“二位一体”状态下评价医师的注意义务,从而扩大医生的注意义务范围。
2.医疗人工智能对医师注意义务标准的影响
在传统医疗环境中医师直接管控诊疗活动,而在医疗人工智能应用环境下部分诊疗活动由医疗人工智能处置,因而认定医师注意义务的标准理应有所调整。关于医师注意义务的认定标准,医事刑法理论上存在合理的医师标准与理性的医师标准的争论。前者也被称为医疗常规标准,与日本刑法中的“医疗的一般水准”含义相同,是指“以一般的医师在当时所知悉的医疗的‘一般水准’作为基准,即‘对该医师所要求的注意义务程度,当出现特殊的因素的情形另当别论,应以专门医师在一般情形中,应该尽到的注意义务为基准’”。
医师监管医疗人工智能实施的诊疗活动一般应遵循合理的医师标准,在审查验证医疗人工智能的诊疗建议、监督其操作过程中应尽到理性的医师注意义务。在常规医疗活动中,人机协作环境下的医疗一般水准主要受系统的先进性程度影响,医疗人工智能遵循标准化程序,直接处理各环节主要诊疗事务,让医师掌控医疗人工智能的每一步操作既不必要也不可能,医师只需要严格按照操作规程应用,遵循合理的医师标准,就应认为尽到了医师注意义务。但是,医疗活动不同于自动驾驶汽车应用,它具有高度专业性和医师行为的亲身性,医师与医疗人工智能的关系是使用者与被使用物的关系,后者智能性、完善性、安全性程度再高,也离不开高素质医师的妥善使用。在人机协同“二位一体”的诊疗模式中,医师不能脱离控制者位置,必须对诊疗活动全程进行实质而非形式的审查、验证和监督,警惕系统故障和错误并及时采取补救措施。在应对非常规的、疑难、复杂病情时,更需要医师独立诊断和治疗,亲自处理全过程的诊疗事务。即使未来发展出贯穿医学检查、临床诊疗方案决策和手术的一体化医疗人工智能系统,其诊疗操作过程也应严格遵守医疗常规,医师仍然负有实质的审查、验证和监督责任,对疑难病症和存疑的诊疗建议应亲自比对、检查和召集相关医师会诊,全程在场控制监控手术过程,对异常的手术操作及时制止和修正。否则,不能认为其尽到了理性的医师诊疗义务,应当对医疗事故承担责任。
(二)医疗人工智能对医师注意能力的影响
医师对具体危害结果具有注意能力是成立医疗事故罪的必要条件。“注意能力也称为认识能力、预见能力。成立犯罪过失,应以具有预见能力为前提,这是因为法律不能强人所难;如果行为人没有能力预见时,不能令其承担过失罪责,……应以行为当时具体条件下其本人的认识能力和认识水平为标准。”
1.受限于医疗行为专业分工合作。现代医疗活动分工细致,部分诊断行为完全独立,如CT、X光等医学影像、病理检查、麻醉等。下游医师对这些独立诊断行为的错误不可能认识和预见;同时,基于对医师的职称、工作经历以及团队合作的信任,在常规上也应当采取信任的态度,应相信他人诊断结论正确,并基于此实施本人的医疗行为,除非明显违背医疗规范。关于手术医师不具有预见可能性的理由,有学者采用信赖原则理论来解释,认为,在手术医师与“水平分工”的医师(如药剂师、麻醉师等)之间适用信赖原则阻却医师责任,而“在垂直分工的情况下,应当对护士等医疗参与者的个人资质进行个别考察,以决定能否适用信赖原则”。
2.受限于医疗设备设施的操作行为范围。医疗设备设施的应用也会影响医师的注意能力,如医学影像设备、生化分析仪、心电图机等故障导致的医师误诊漏诊,手术过程中输液泵、注射泵、呼吸机故障导致的医疗事故等。医师对医疗设备设施的故障及所致后果的注意能力应限于操作行为范围,如果医师按照使用规程进行操作,按照一般医务人员标准来判断没有收到异常信息反馈的,应当认为医师对设备设施的故障及其后果没有注意能力。理由是:医疗设备设施的安全标准高,医师相信医疗设备设施可靠有制度保障;医疗行为高度专业化,医师必须专注于医疗行为,不应当要求医师关注非本专业领域的事务;医疗设备设施的物理化学特性属于非医学领域知识,发生故障的可能性及其后果超出了医师专业知识能力范围,要求医师对其有超常的预见能力,是强人所难。
医疗人工智能是特殊的智能医疗设备,既不是医疗行为主体,也不同于人工预设操作过程的普通医疗设备设施,医师使用医疗人工智能时,认定其注意能力的标准不同。
首先,医疗人工智能是辅助性诊断决策系统,不是医疗行为主体,不存在基于对其信任而降低注意能力的法律依据和理论基础。《人工智能辅助诊断技术管理规范》将“具有人工智能的嵌入式临床诊断与治疗仪器设备”划入仪器设备的范围,医疗人工智能被定义为“计算机辅助诊断软件及临床决策支持系统”,其输出信息“仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定”。这意味着医师必须充分运用专业知识和能力检查验证医疗人工智能输出的信息,不允许以医师相信医疗人工智能为由升高其注意能力的认定标准。而且,在刑法理论上,无论是在交通事故领域还是医疗事故领域,信任原则理论讨论的是对其他自然人的信任是否影响注意能力,医疗人工智能不具备自然人主体和医疗行为主体地位,不适合适用信任原则理论判断医师的注意能力。
其次,医疗人工智能是具有不确定性的智能设备,医师对这一特性及其可能导致的后果具有认识可能性。普通医疗设备设施不具有独立的分析、处理和决策智能,其功能通常是医疗数据的采集记录、预设逻辑的信息处理、人工控制的医疗操作等,医师起绝对控制作用。而医疗人工智能则不是医师可以绝对控制的设备,它不仅具有普通医疗设备设施的全部功能,还能在授权范围内运用自身智能进行一定的医学分析、判断、决策和治疗,机器智能与医师智能相接合,共同影响医师的诊疗活动。
医疗人工智能的技术特性使医师在回避其应用风险时面临两难境地。一方面,医疗人工智能具有改善医疗服务的现实价值。经过长期的数据学习和功能改进,医学人工智能在诊疗效果和安全风险控制上会越来越好,能在一定程度上替代医师的部分专业分析和处置工作,减轻医师的工作负担,医师无法拒绝其提供的信息或者使用其替代人工诊疗,否则,医疗人工智能应用就没有实际意义。另一方面,医疗人工智能的技术特性使医师无法获悉其分析、处理的过程和遵循的医学知识逻辑;如果不相信医疗人工智能,就要回到完全依赖人工的传统医疗模式,患者、医师、社会都不能享受到医学现代化的进步成果;而医生相信医疗人工智能又会使自己承担其发生错误的法律后果。对于前述困境,在传统刑法理论框架内找不到解决办法,应当通过建立有益的医疗人工智能发展制度,合理认定医疗人工智能应用环境中的医师注意能力。
首先,我国应当发展以人为本的、有益的医疗人工智能。发展有益的医疗人工智能,一方面要以患者为中心,提高诊疗效果,降低诊疗风险。另一方面要服务于医师,减轻医师的工作负担,促进医师专业技能发展,不能单纯追求快速发展,动摇人工智能有益于人类的发展宗旨。应建立综合性医疗人工智能应用的安全风险监控体系,从社会管理部门和行业人员两个方面保障医疗人工智能的安全、高效发展;既不能单纯追求医疗人工智能的快速应用,也不能脱离医疗人工智能应用的客观实际,片面强求医师提高注意能力。国家卫生健康管理部门应当规范医疗人工智能应用。应当建立医疗人工智能应用安全验证和准入制度、诊疗效果国家标准、医疗机构强制报告和不合格医疗人工智能强制退出制度,严格控制医疗人工智能的应用范围,确保医疗人工智能辅助诊疗结果近零错误率,确保医疗人工智能产品的安全、高效;还应当向医疗机构和医师及时反馈各类医疗人工智能故障和不良结果率,为医师认识医疗人工智能的可靠程度及其可能的应用后果创造条件。
其次,医师应当坚持医疗行为主体意识,全程检查、验证和监控医疗人工智能应用,对其危害保持合理的注意。对于符合国家法律法规标准的医疗人工智能,医生在一般情况下可以相信其安全、可靠,对其正常应用导致的危害后果不具有注意能力。但是,如果其应用明显异常,如其提供的结论或者建议明显违反医学知识和医疗常规,或者手术机器人的操作可能严重损害患者生命健康,医师对危害后果显然具有注意能力。医师对医疗人工智能应用未尽到全程检查、验证、监控义务,以至于没有察觉到以上异常应用情况,或者未及时停止其应用并补救,导致严重损害患者生命健康的,应当认定其对危害后果具有注意能力。在实践中,医疗人工智能诊疗的高精准率对医师的诊疗行为有实质性影响,可能损害医师独立诊疗主体地位。如,担心自己的诊疗行为与医疗人工智能的结论不一致或者人工操作风险更大,医生不再坚持独立判断,完全依赖于医疗人工智能系统,导致医师诊疗主体地位的虚化,使医疗诊疗风险在医疗人工智能系统内部闭环放大,损害患者的生命健康,妨害医疗健康事业的正常发展。因此,在制度设计上,不得将医疗人工智能诊疗建议和操作效果作为评价医师是否履行注意义务的依据,更不得要求医师必须使用医疗人工智能、采纳其建议,医师不使用医疗人工智能的,应按照传统医疗行为标准认定医师的注意能力。
五、结语
医疗人工智能的发展方向是高度的专业化和智能化,而不是产生“自主意识和意志”,成为医疗行为主体,不能成为医事刑法中犯罪主体和责任主体,在刑法中处于客体地位,是被利用、保护和管理的对象。医疗人工智能改变了传统医疗活动,对医事犯罪的成立有实质性影响,医师的说明告知义务、医疗事故罪中医师的注意义务与注意能力判断标准需要进行调整。应坚持以患者为中心,建立有益的人工智能发展制度,在监管部门、医师和患者之间合理分配医疗人工智能安全风险防范责任;同时,推动医事刑法及相关理论的发展创新。
医学从根本上是人学,每位患者都是独一无二、不能重来的生命,对病患的人文关怀是医疗活动的重要组成部分。医疗人工智能的科学基础是数理逻辑,只能进行基于逻辑思维的信息处理,无法完成需要人类感性思维、形象思维、灵性思维、社会思维的工作,客观上也不存在棋类人工智能具有的亿万次试错训练条件,未来不可能完全替代医师的工作,其发展方向只能是医师监控下的人机协同。法律制度应保障人机协同医疗的发展,客观回应医疗活动变革的事实,及时完善医疗人工智能相关法律法规,这也是医疗人工智能相关刑法问题研究的起点和重点。
(本文为文章摘录版,如需引用,参阅原文)
文章来源:法律科学(西北政法大学学报). 2021,39(01)