论文精粹|INFORMATION
皮勇:论医疗人工智能的刑法问题
管理员 发布时间:2021-10-04 08:11  点击:2633

新一代人工智能具有自主学习适应能力,广泛应用于社会各领域,医疗领域是人工智能发展的重点,我国医疗人工智能企业占比达22%。1医疗人工智能有助于缓解资源紧张、提高诊疗准确率和效率。我国《新一代人工智能发展规划》要求“推广应用人工智能治疗新模式新手段,建立快速精准的智能医疗体系”。 2019年12月28日通过的《基本医疗卫生与健康促进法》第49条规定:“国家推进全民健康信息化,推动健康医疗大数据、人工智能等的应用发展。”医疗人工智能也存在安全风险,前述发展规划要求“在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”“加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础”。刑法在保护法益的同时,也要保障医疗人工智能快速应用、安全健康发展,因此,有必要研究医疗人工智能给医事刑法及其理论带来的挑战性问题。

一、医疗人工智能提出的刑法问题

医疗人工智能即智能医疗,涵盖智慧医院管理、人工智能诊疗(包括人机协同的手术机器人,智能诊疗助手,人机协同临床智能诊疗包括智能影像识别、病理分型和多学科会诊等)、人工智能慢性病管理、人工智能药品开发和医药智能监管以及流行病智能监测和防控等。医疗人工智能引起的法律问题范围较广,有些与刑法无关如人工智能慢病管理相关法律问题,有些问题是传统刑法问题在人工智能应用环境下的新发展,可以在现行刑法范围内妥善解决,如泄露和非法利用患者的诊疗信息和隐私等。医疗人工智能主要给医事刑法带来以下问题:

第一,医疗人工智能的刑法地位问题。当前医疗人工智能在诊疗领域的应用主要是医学影像辅助诊断、临床辅助决策和机器人手术,表现出令人惊讶的精准、高效。2但医疗人工智能也会出错,甚至造成严重损害。以当前最成熟、应用最广泛的达芬奇通用机器人为例,机器人手术在2000年至2013年间共涉及144人的死亡,其中,头部、颈部、心胸手术的风险几乎10倍于其他形式的手术。3如果将医疗人工智能系统视作普通医疗器械对医师追责,不符合医师行为实际作用的事实,会导致对医疗人工智能应用的抵制,那么,医疗人工智能能否作为独立的医事犯罪主体?如果不能,医疗人工智能的刑法地位是什么?

第二,医疗人工智能的正当性问题。患者知情同意是医疗行为特别是侵入性医疗行为具有正当性的前提,患者对医疗人工智能应用充分知情和同意使用,才能使人工智能辅助医疗行为具有正当性。医疗人工智能的“智能”来自算法和学习的数据,其诊疗决策过程和逻辑不同于医师的知识学习和诊疗过程,在当前及未来相当长时间内其分析和决策过程不具有可解释性,结论具有不可预见性。医疗人工智能以高概率为决策标准,其诊断和治疗方案是否适应特定患者存在疑问,发生诊疗错误的可能性不仅客观存在,而且会保持一定比例。医师认识医疗人工智能的以上特点向患者说明中面临诸多困难。

第三,医疗人工智能应用中医师的注意义务和注意能力问题。在认定医疗事故罪中,必须确定医师是否具有注意能力和违反注意义务。医疗人工智能应用会改变医师的注意义务范围,影响其注意能力,如何适应医疗人工智能的特点,合理确定医师的注意义务和注意能力,是需要研究的问题。

二、医疗人工智能的刑法地位

人工智能是否应被赋予犯罪主体或刑事责任主体地位,在刑法学者中形成了针锋相对的观点。持肯定观点的学者认为,“超出设计和编制的程序范围,在自主意识和意志的支配之下实施严重危害社会行为的智能机器人可以成为刑事责任主体”“可能和使用者构成共同犯罪”。4反对的学者认为,“人工智能无论怎么发展,都无法获得人类的自由意志”“刑事责任能力除了需要具备表面的‘认识能力’和‘控制能力’之外,还需要实质判断要素,即社会中具备责任能力的主体的认同”“在能够预见的未来时空范围内,人工智能时代的犯罪主体,尚无法进行变更,不能确立人工智能的主体地位”。5争议的焦点是人工智能是否具有“自主意识和意志”以及人类社会是否认同其主体性。“自主意识和意志”的本来含义是自己选择、决定,对于他人的要求可以选择接受或者不接受。无论是自然人还是人工智能的“自主意识和意志”,都不可能被直接认识,必须依据其外在表现来推断。如果人工智能具有“自主意识和意志”,会在人类试图控制人工智能系统或者拒绝其建议时,表现出超出人类预先设计的对抗反应。“超出设计和编制的程序范围”未必由人工智能“自主意识和意志”所支配,也可能是因技术故障所致,如航空器、高铁等的自动驾驶系统在极端环境条件下发出超出设计和编程范围的驱动指令,不能被认为是具有“自主意识和意志”。只有将逻辑颠倒过来,即,在人工智能的“自由意识和意志”决定下发出的“超出设计和编制的程序范围”的控制指令,才有讨论意义。其次,“自主意识和意志”不等于“智能”,高度智能的机器可能没有“自主意识和意志”,只是按照预设程序对输入的信息进行反馈,如波音737MAX系列航空器中的失速保护自动驾驶系统(MCAS)。当前的人工智能是从历史数据的学习中发展起来的、以大概率为判断逻辑的发现和提出最优解决方案的能力,并没有发展出对抗人类控制的能力。未来如果出现所谓人工智能的“奇点”,所谓的“强人工智能”具有了自主意识和意志并能对抗人类控制,其法律主体地位的决定权仍在人类,而不可能自然具备。如果人类赋予其不受任何人控制的权利,必然导致人类失去命运决定权,这与发展人工智能的基本原则和方向相背离;6这种具有自主意识和意志的人工智能的有害活动当然不被人类允许,其存在本身同样也不被人类允许,不可能先赋予其主体地位,并等到其出现有害活动后,才以讨论其刑事责任的方式来解决。7

医疗人工智能具有人工智能的共性,不可能取得医疗主体地位,也不能成为医事犯罪的主体。除了前述理由,还可以从医疗人工智能发展状况与趋势中得出以上结论。我国《人工智能辅助诊断技术管理规范》将医疗人工智能系统限定为“计算机辅助诊断软件及临床决策支持系统”,但考虑到治疗人工智能已经在研究和应用中开展,以下讨论也限于疾病治疗领域的医疗人工智能。

(一)疾病诊断和临床决策领域

医学影像诊断人工智能不具有形成自主意识和意志的事实基础。目前医学影像诊断人工智能主要用于肺癌检查、糖网眼底检查、食管癌检查以及部分疾病的核医学检查和病理检查,处理过程分为影像的预处理和病灶定位、图像分割和特征提取、匹配和类聚,前两步都是按照预设程序进行,不涉及算法的自主学习即人工智能问题,只有第三步“匹配和类聚”由人工智能算法将特征向量映射为诊断结论。该算法非事先人为设定,而是算法程序对以往的大量医学影像及其结论进行学习、自适应形成的分析和判断标准,该标准是动态的,后续的学习会引起其变化。前述人工智能算法与医师的知识训练遵循不同的逻辑路径,后者以传统医学知识为基础,其推理过程严格依据医学知识和规律,而前者以影像和预设算法标准为基础,对所有的数字化后的影像特征数据进行概率统计,不直接依据医学知识和经验,是纯粹的数据信息处理。经过大数量级的影像数据处理、全面的特征量提取和匹配训练得到的人工智能算法可能具有比医师更强的规律发现能力,能发现某些未被传统医学注意的特征量与结论之间的联系,加之当前计算机信息系统具有强计算能力、高准确度和不知疲倦的运行能力,能够更客观、精确和高效地完成疾病诊断任务。

这类人工智能并不能发展出“自主意识和意志”。人工智能系统的功能完全由计算机硬件、算法和已学习的数据决定,其核心是算法;而算法由最初的程序设计和应用的影像数据和诊断结论绝对决定,无论形成的是何种算法,都是对后二者的映射。即使系统学习的影像和结论数据规模增大千万倍,也无法突破以上限制。以上算法所学习的数据具有专业性,不可能将非医学证据当作训练数据供算法学习,诊断结论是否被医师采纳的信息不是算法的学习、训练的数据,不具有引起所谓“自主意识和意志”选择性反应的数据基础。学习数据对算法的决定性影响还通过以下事实表现出来:人工智能偏向于对高发疾病有准确的诊断结论,对疑难疾病的诊断往往出现高错误率,原因是影响其算法形成的数据主要是常见疾病的数据。例如,在胰腺囊腺瘤的诊断中,浆液性囊腺瘤占比在80%以上,黏液性囊腺瘤不到20%,人工智能系统将所有的胰腺囊腺瘤患者诊断为浆液性,可以获得80%以上的准确率,这样的准确率在实际应用中毫无意义。8即使人工智能的准确度能达到99%,因为罕见病例数据少,算法对其诊断的准确度更低,属于1%疾病类型的患者反而可能承受接近100%的不幸。无视人工智能的数据“不自由性”本质,认为其未来会发展出“自由意识和意志”,甚至无需医师创新和实践就能发展出更高水平的医学,是反科学的幻想,遑论赋予其医疗行为主体和医事犯罪主体地位。

临床治疗方案辅助决策人工智能同样不具有自主意识和意志。以当前最成熟的IBM公司的Watson系统为例,医师将诊疗史、分期特征、转移位点、危重病情况输入系统,系统会给出最优、谨慎和不推荐等多个诊疗方案,供医师用于对比和调整自己的方案,该系统对乳腺癌、肺癌、结肠癌等多种癌症的诊断推荐方案与多学科医师会诊方案的一致率较高。9与前述医学影像人工智能算法相似,其智能来自于对病历、疾病文献和临床诊断案例数据的学习,医师对某种疾病的认识越深刻,诊疗效果越好、越稳定,向Watson系统提供的有效诊疗案例数据越多,该系统提供的方案质量就越高,即受限于初始算法、现有的医学知识文献和训练的临床疾病案例数据。通过采用更多的特征量,分析更多的医学文献和临床案例数据,能够训练出更强大的算法,甚至能找到当前医学所没有发现的医疗知识和诊疗方案,但其仍是分析过去医学实践的知识发现,没有跳出所学习数据的限制,10不能进行医学创新,更不可能产生“自由意识和意志”,医师不采纳其最佳诊疗方案甚至采用不推荐方案时,不会出现避绕或者对抗医师的反应,没有任何医学文献认为Watson系统可以成为医疗行为主体。

《人工智能辅助诊断技术管理规范》明确将前述两类医疗人工智能定性为辅助工具。该规范第3条规定:“应当由2名以上具有5年以上与开展人工智能辅助诊断技术相关专业临床诊疗工作经验的医师做出决定并出具诊断意见。由具有5年以上与开展人工智能辅助诊断技术相关专业临床诊疗工作经验的医务人员进行操作。”“人工智能辅助诊断技术为辅助诊断和临床决策支持系统,不能作为临床最终诊断,仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定。”未来辅助诊断人工智能可能会在更多的疾病诊断上提供更智能、更高质量的诊疗建议或推荐方案,甚至能够直接面向患者应用,但不会允许其脱离医师的控制,诊疗活动的主体仍然是医师而非诊疗人工智能。臆想未来医疗人工智能成为医疗行为主体,不仅没有事实和法律根据,而且会否定患者、医师及医疗机构三者之间的法律关系,使医疗人工智能应用脱离医疗领域,变为患者使用医疗人工智能产品进行自诊,从而不存在医疗主体和医事犯罪主体。这种变化违背医学和医疗实践发展规律,对社会、医疗行业和患者有害,不符合有益的人工智能的发展目标。

(二)治疗领域

当前疾病治疗领域的人工智能是手术机器人,具有其他机器人一样的法律性质。关于其法律地位医学界和法学界有不同的认识。医学界普遍认为“手术机器人是一种智能外科手术工具,借助精密的干预措施、本体结构和智能控制系统等技术的突破解放医师的手和眼,提高临床操作准确性和手术成功率”。11而法学界关于机器人的法律地位讨论已经突破了工具或客体的地位。有民法学者提出,“在某些特殊情况下,因为其已经具备创造或者由于自身之决定导致损害发生时,应将人工智能视为民事主体……在人工智能致害的情况下,只要人工智能自主决定所致损害不能由产品责任调整,即可类推适用雇主责任”,将机器人拟制为雇员。12有刑法学者认为,“法律属性上可以将智能机器人定位为经程序设计和编制而成的、可以通过深度学习产生自主意识和意志的、不具有生命体的‘人工人’”“在设计和编制的程序范围外实施行为时,智能机器人的行为实现的是自主意志而非他人意志,因而可以成为刑事责任主体”。13以上法学人士认为未来机器人能够产生自主意识和意志,应将其“自主决定”的活动认定为独立法律主体的行为。智能机器人是由人工智能算法和机械系统组成,受人工编制的初始算法程序和学习的数据绝对决定,所学习的数据都是专业的医学知识和临床案例数据,不会放任非医学数据的输入和训练,其输出的仅为疾病诊断和手术方案信息,不可能产生所谓“自主意识和意志”。

医疗机器人的发展实践表明其仅具有工具地位。医疗机器人应用于临床手术和辅助医疗领域,其中,外科手术机器人最复杂,而通用手术机器人如达芬奇机器人又是其中最成熟和复杂的机器人系统。无论哪种手术机器人都包含系统软件、硬件辅助设施和人机交互与显示单元等主要功能模块:1.系统软件根据术前术中的医学影像和定位装置确定的影像位置完成影像重构,通过人机交互与显示模块与医师交互进行手术规划,以及手术空间配准和定位控制;2.硬件设施进行医学影像采集、机器人定位和手术操作;3.人机交互与显示是医师获取前述影像、位置信息并向系统软件发出控制指令的通道和操作平台。主从式机器人由医师通过操作台控制前述硬件设施进行手术,如通用手术机器人达芬奇;自动式手术机器人由医师在术前完成手术规划,术中机器人自动完成手术操作而无需医师操控,如骨科手术机器人ROBODOC。手术机器人能超越人工手术的视觉、手工操作的限度,不受医师经验、疲劳度的影响,实现高精度、稳定性、灵活性手术;14但是,当前手术机器人缺乏触感和力反馈功能,仅对部分患者治疗效果好,但对有些疾病的整体治疗效果很差。有权威医学文献显示,相比于开腹根治性子宫切除术,早期宫颈癌妇女接受机器人辅助的微创根治性子宫切除术的无病生存率和总生存率反而更低。15而且,以上手术机器人都由医师在术前或术中控制,“是医师眼睛和手的延伸。机器人应该告诉你有助于指导你的有价值的信息,它会自动为你做一些事情。使用大数据,它将使用解剖学识别软件,这种性质的东西,目前还没有。”16严格地讲,当前医疗手术机器人不属于医疗人工智能的范围,只是智能医疗机电一体化系统。有医学专家认为,机器人手术的未来是高度智能化,“专科手术机器人将是整合术前规划——术中导航——术中辅助灯全智能化手术流程的”精准外科手术工具;17更远的预测是,“通过加强手术机器人与影像学资料的兼容性,在现有的‘数字人体’的基础上,通过设计的专门程序,可能由手术机器人主动识别疾病、自行制定手术方案,经过手术医师审定、监督,自动完成手术操作,实现疾病诊断、手术的‘全机器人化’”。18在以上远景中,医师仍然是疾病诊疗行为主体,手术机器人具有诊疗主体地位。

(三)小结

医疗人工智能的未来发展方向是高度专业化、智能化,而不是产生“自主意识和意志”和成为医疗行为主体。无论从医学还是人工智能学分析,“有自主意识和意志”的医疗人工智能缺乏事实和科学依据,不符合有益、可控的医疗人工智能的发展目标,不符合医疗现代化发展的需要,也不为社会规范所允许。医疗人工智能与医师是特殊工具与应用主体的关系。医疗人工智能是医疗现代化进程中出现的智能医疗工具,既有优点也有不足。“人工智能不是人类,也没有人类的思维及情感,其做出的诊断及提出的诊疗策略是来源于大数据,来源于经验,给出的可能是客观的,最优化的建议,但在临床中,医师会跟患者及家属有情感上的沟通和交流,会根据患者具体情况给出婉转的解释或适合的治疗选择……人工智能医疗缺乏灵活性,不能因时、因地、因人、因情而区别对待。”19对于这一有局限性的智能医疗工具,医师不仅要培训熟练应用的能力,还要对其不足或可能造成的损害保持警惕,否则会发生类似2015年英国达芬奇手术机器人心瓣手术失败的严重后果。20因而,医生必须保持对诊疗活动全过程的、绝对的控制;医疗人工智能的分权操作必须处于医师的支配之下,始终处于工具地位,不存在成为医疗主体的可能性。在刑法上医疗人工智能只能处于客体地位,是被利用、保护和管理的对象:(1)作为被利用的对象,医疗人工智能是医师用于诊疗活动的工具,医疗人工智能所致危害结果由医师承担法律责任;(2)作为被保护的对象,医疗人工智能既是医疗设备设施也是计算机信息系统,其安全正常运行的行为受刑法相关规定保护;(3)作为被管理的对象,医师、设备提供商以及其他相关人员必须对医疗人工智能在分权状态下自主运行承担监督管理责任,未尽到监管责任导致严重后果的,可能承担相应的法律责任包括刑事责任。21

医疗人工智能改变了传统医疗活动,对医事犯罪的成立有实质性影响。化解医疗人工智能相关安全风险,不能采取对医疗人工智能系统本身追究刑事责任的方式,出路只可能是规制医疗人工智能研发、生产和使用者的行为,重点是规制医师使用医疗人工智能行为。由于医疗人工智能改变了医事犯罪的环境条件和医疗活动的内容和形式,医师使用医疗人工智能的行为不同于传统医疗行为,相应涉罪行为的刑事责任应有别于普通的医事犯罪,因此,医疗人工智能的刑法问题主要是医疗人工智能应用对医师刑事责任的影响。

三、医疗人工智能的正当性基础

(一)患者知情同意是医疗行为正当化的核心根据

医疗行为是有风险的业务活动,侵入性医疗行为即使成功也会给患者造成一定的损伤,形式上符合故意伤害等犯罪的特征,法律并非允许任何医疗行为。22关于医疗行为的正当化根据,主要有非伤害性说和伤害性说。非伤害性说认为,只要是出于医疗目的、具有医疗适应性(医疗行为对维持、增进患者的生命、健康是必要的)、符合医学准则并且满足优越利益原则(虽然侵害患者的身体利益,但保护了患者更大的利益),就阻却伤害罪的构成要件该当性,而违反或者超越患者同意的属于专断医疗,仅侵害患者的意思自决权而非生命健康权。23伤害性说认为,伤害罪的故意并没有附加区别“善意”(包括医疗目的)和恶意的主观构成要件要素,以行为时对患者优越利益的追求或在结果上的实现,不能否定造成患者损伤后果的客观现实,否定阻却伤害罪的构成要件该当性,24只是由于存在正当化根据而阻却违法性,最终不成立伤害罪。正当化根据说又衍生出业务权说、紧急避险说、同意说、优越利益说、治疗目的说、社会相当性说等。25

撇开德日刑法学关于犯罪成立的“三阶层理论”的内部争论,医疗行为正当化根据主要包括三个方面:1.符合法律规定的业务行为;2.实现患者的最佳利益;3.患者知情同意。业务权说、诊疗目的说和社会相当性说依据第1类根据,主要理由是:医疗行为是出于医疗目的而非加害目的、符合医疗准则,是被法律允许的、社会接受(具有社会相当性)的业务权利行为,“医师乃是受到国家许可而执行医疗业务之人,医疗行为正当化的理由,并非来自病人的同意。医师的医疗行为,只要是从医学知识上足以达成医疗目的,且法律没有明文规定使用禁止者,就是受到允许的。医疗行为虽然有可能对病人身体组织造成侵害,但只要是需要的,都可以进行。”26笔者认为,不满足以上要求且存在损害他人身体生命健康风险的活动不可能成为法律允许的业务行为,以上要求只是其获得法律允许的基本条件,是医疗行为正当化的必要而非充分条件;不应将医疗行为认定为业务权利行为,27否则,必然导致无视患者对自己身体健康决定权的专断医疗。在医疗服务市场化环境下,损害患者身体健康和财产权利、追求医院或医师利益的行为如过度医疗,也会因其是业务权利而成为合法行为。现代医学实践已经否定了业务权利说,世界医学会在1964年通过的《赫尔辛基宣言》和1981年通过的《里斯本患者权利宣言》确认了以患者知情同意为核心的权利。28尊重患者的知情同意权不只是医学界遵守的伦理准则,也是各国医事法律的要求。美国于1991年通过了《患者自我决定法》,我国《基本医疗卫生与健康促进法》《医疗机构管理条例》及其实施细则都明确规定了患者的知情同意权,29《侵权责任法》第55条还规定了医疗机构和医务人员侵犯患者知情同意权的法律责任。

患者知情同意是医疗行为正当化的核心根据,实现患者的最佳利益和遵守医疗相关法律规定及医事准则是基本依据,后二者补充和限制前者,实现对患者的优质医疗服务。30医疗行为是法律允许的社会服务,无论市场性还是事业性医疗活动,医师与患者之间都是服务合同关系,而不是医师的单主体权利活动。“医患关系上,病人不是单纯的客体,而应该是主体,有权决定自己的医疗内容。”31在涉及损害患者权利的事务上,医师的行为权利来自患者的有效知情同意和授权,并受法律规定、医疗准则的限制,如医师不能违反法律实施患者要求的安乐死。在涉及患者的生命、健康、财产权利冲突等情况下,患者最佳利益的判断标准一般应由患者意思自决,除非按照患者的决定行事违反法律规定和医疗准则。

人工智能医疗是现代医疗活动的一种新发展,人工智能应用是实现更优质医疗服务的新技术手段,并未改变其医疗行为的根本性质,不应当动摇医疗行为的正当性基础,必须坚持患者知情同意原则,否则不能被评价为医疗行为;如果造成伤亡结果,就可能构成故意伤害罪或者过失致人重伤或死亡罪。

(二)医疗人工智能应用中满足知情同意条件面临的挑战

满足患者知情同意条件,需要医师充分说明告知,患者充分认知与有效承诺。有观点认为知情同意原则的适用与医师的说明无关,只要有被害人承诺,即可成立违法阻却事由,讨论告知义务反而是对医师“歧视性”的规定,违反平等原则。32“病患通常不具备医疗上的专业知识,当病患决定是否承诺医疗时,应当有医师的告知。这项告知,是病患做出决定的重要依据。”33要求患者自力了解即将发生在自己身上的、专业、复杂的医疗行为及其可能引起的后果,对绝大多数不具有医学知识的患者而言是强人所难。除非存在法律或者医疗准则规定的特殊情况,医师的说明告知内容至少包括:一是诊断的说明。诊断发现的重要内容,包括不限于可能患有的疾病。二是治疗的说明。应当告知患者治疗与不治疗的后果和预后可能的副作用等风险。对于存在多种治疗方案的,应当全面告知,尤其应当真实告知各种方式的风险,包括可能造成死亡、损害和其他副作用,以供患者进行选择。

由于医疗人工智能的特点,医师在履行说明告知义务时会遇到“知识黑洞”和其他导致难以充分说明的困难。

1.诊断与临床决策中的说明困难

一般而言,对诊断的说明通常是实体性的诊断发现和结论,如病理指标和确诊的病症等。如果采用新的诊断方式或技术且可能影响到诊断的准确性及患者其他权利的,医师就应当在诊断之前向患者说明“将要采取的诊断措施及其后果”等。34由于医学影像人工智能的前述特性和不足,患者应被告知使用人工智能辅助诊断,告知内容应当包括影像人工智能的性质(处于医学实验阶段还是被批准的临床应用)、适应范围和准确度、禁止适用范围和误诊漏诊风险、辅助诊断结论被验证和被采纳的标准和依据。受限于专业知识,医师一般难以了解医疗人工智能辅助诊断系统的原理,尤其是实质性影响诊断结论的人工智能初始算法和学习数据的来源、质量和数量,对人工智能算法如何进行判断及其有效应用范围和误诊漏诊风险等很难真实了解,在此情况下医师难以向患者充分说明,只能转述他人的评价。由于当前医学影像人工智能被认为诊断准确率高,当医师人工验证检查后有不同认识时,无论是直接采纳系统的结论,或是坚持人工检查的结论,其内心确信都是松动的,对此是否要向患者说明?诊断是医疗的重要部分,诊断过程和结论不仅消耗治疗时间,也决定了后续治疗,实质性地影响患者的生命、健康、财产等权利,因此,以上说明告知困难应当被解决。未来医疗人工智能应用会普及化,患者能从不同渠道了解到医学人工智能的误诊风险;如果医生不说明告知,患者就会感到被“批量化”而非“个别化”诊断,引起医患矛盾。

临床治疗方案辅助决策人工智能的运行原理与医学影像人工智能相同,医生存在相似的说明告知困难。由于医学数据具有不完全性,医师对学习数据的说明存在更大困难。首先,该类系统学习数据具有客观的不全面性。医学影像人工智能系统通过CT、X光和全玻片数字扫描设备直接获取影像数据,数据更标准,数据量更大,信息更全面,分析结论相对客观。而临床治疗方案辅助决策人工智能的训练数据受临床医师检查科目和记录信息的影响,数据质量和全面性程度较低,进而影响形成的算法。医师在训练和使用该系统时,对于应当输入哪些检查信息才能满足其数据分析的需要,内心并不确定。该系统算法是初始算法,大量医学知识及临床病例数据由自主学习形成,算法不具有医学上的可解释性,医师无从知晓其分析的所有数据指标,不可能向患者充分说明。其次,该系统学习的数据具有主观的不全面性。作为诊断对象的人与机器设备不同,不仅有客观的身体组织器官,还由感情、灵性等“精神”组成;影响人体生命、健康的除了身体机能的生化因素,还有人类生物学因素、社会与物质环境因素、心理行为因素等。对于病患,医师“有时能治愈,常常去缓解,总是去安慰”,治疗不可能只是冷冰冰的用药施术,医患之间的交流、安慰和鼓励等精神治疗贯穿医疗活动全过程,这些交流活动及其内容无法全面记录,并提供给临床决策辅助系统分析。“医学首先是人文的,而不是技术的……人是世界上最精密、复杂、敏感的生命体,同样的疾病在不同个体上表现迥异,一种疾病在同一个体上的不同阶段区别巨大。医学说到底是人学,而不是机械学、物理学,也不是生物学、细胞学和疾病学……人的问题必须靠人来解决,单纯依靠技术是行不通的。” 35即使前述Watson系统解决了国外病例数据偏见、实现了本土化和学习数据的标准化,仍不能完全解决数据的主观不全面性问题,不能替代医师或者指导医师去进行个别化的精神层面的治疗。医师除了能说明该系统推荐的方案与既往治疗方案一致性高,难以充分说明方案的科学性;如果医师对其依赖而非主动应用,就会出现“批量化”治疗的后果。

2.治疗中的说明困难

第一,对治疗效果的了解和说明困难。

当前我国临床手术中,包括达芬奇手术机器人在内的多种手术机器人多被评价为手术和预后效果更好,或者与人工手术无差别。36实际情况并非如此,手术机器人并非都有好的治疗效果,而许多患者和医师难以知晓这一情况。前文提到的著名医师团队在世界顶级医学杂志《新英格兰医学期刊》发表的研究数据和结论,就与前述评价相左。该医师团队发表这一结论前反复核实数据,不仅因其与现有好评相反,也因其会对相关利益方产生重大影响。而更多的机器人手术医师不仅没有足够的临床病例去验证他们相似的感觉或疑问,导致许多医师不了解机器人手术的实际效果,更不可能向患者充分说明该种诊疗方式的真实效果。

第二,对手术机器人运行风险了解和说明困难。

手术机器人是高度精密的机电设备,但其运行并非不出现故障。美国全国广播公司对2009-2018年美国食品和药物管理局MAUDE数据库中的不良事件报告进行分析,发现与达芬奇手术机器人相关的事件报告有2万多件,其中,超过2,000个不良事件被归类为伤害,274个被归类为死亡,近17,000个事件被归类为设备故障,既有轻微的,也有严重的,包括机器人手臂不受控制地走向错误的方向、绝缘层开裂和掉落进病人的身体里,以及电击和烧伤等。37对于这类运行安全风险,医师难以从整体上了解,更不可能向患者充分说明。

第三,市场性行为影响医师向患者充分说明风险。

以达芬奇手术机器人为例,该系统价格昂贵,手术过程中要使用大量高价耗材和器械,手术费用很高。38医师对这种昂贵的手术治疗方式风险的说明和建议,对患者决策有很大的影响,存在厂商给付医师好处以影响其向患者充分说明的道德风险。有报道显示,自2013年以来,达芬奇手术机器人生产商Intuitive Surgical公司向医师和医院支付了1.44亿美元,用于医师的相关教育、研究和旅行。由于他们之间存在财务关系,在医师的研究报告中出现机器人手术的好处的可能性更高。39

综合以上,医疗人工智能还处在发展过程中,并没有消除安全风险,医师对这种新诊疗方式的疗效、操作风险缺乏充分的了解;同时存在利益关联等因素,影响医师向患者充分说明其风险,患者的决策障碍更大。如果医师不能对其充分说明告知,将实质性影响患者的知情同意,进而动摇人工智能辅助医疗行为的正当性基础。

(三)医疗人工智能应用中患者知情同意权的保障路径

医疗人工智能的核心价值是实现以患者为中心的、个别化的优质医疗,而不只是减轻医师工作负担,更不是让医师“下岗”,或者向患者提供“批量化、标准化”医疗服务,以实现更高的商业利益。将医师从繁重、重复的劳动中解放出来,是为了使其有时间精力去做医疗人工智能做不到、做不好的工作,实现医疗服务的升级。医疗人工智能应用必须保障患者知情同意,发展相适应的制度,解决前述医师充分说明告知困难。

关于医师说明义务的判断标准,理论上存在具体的患者标准说、合理的患者标准说、合理的医师标准说、双重标准说(折中说)等多种学说。40笔者认为,如果坚持以患者为中心的医疗服务理念,采取“合理的患者标准”基础上的、考虑具体患者的认知能力的折中说标准是妥当的,唯此才能保证患者的真实知晓,夯实患者有效同意和承诺的认识基础。关于医师充分说明告知的具体内容,有学者认为,应当包括医疗机构的医疗水平、设备技术状况等、患者的病情以及医疗机构的检查、诊断方案;如果不属于医师本领域内或者超过本人治疗能力的,就应及时告知转医或转诊。41也有学者认为,“医师说明的内容,主要是对患者作出决定具有决定性影响的信息。从刑事责任的角度而言,医师应当告知患者所有可能给患者造成物质损害和精神损害的信息。”42并且,根据患者就诊的不同阶段,医师负有告知与患者各阶段决策相适应的内容。以上观点都是为了保障患者充分认知和自主决策,对医师履行充分说明义务提出“一元化的说明义务认定标准”,即要求医师承担全部说明告知义务,否则被认为未尽到义务。可是,该标准没有考虑医疗人工智能应用对医师说明义务履行能力的影响,医疗机构和医师只是医疗人工智能的使用者,无能力也无义务充分认识前述内容,按前述一元化标准来认定不仅是强人所难,而且也脱离医疗现代化发展的实际。对于医疗人工智能及其风险,患者应当获得影响其重要权利的全部信息。为此,我们需要调整患者知情同意权利的保障体系,适应医疗人工智能发展,从监管部门、医疗人工智能生产者、使用者(医疗机构和医师)和患者多方关系的调整中寻找解决方法,建立在监管机关和医师之间分配说明义务的制度,将医师的前述说明义务限定在与其业务知识和能力具有相当性的范围内。

首先,我国应建立医疗人工智能疗效和安全风险的信息披露制度。国家卫生健康管理部门应当在促进医疗人工智能发展和监管其风险两方面发挥主要作用,应收集和公布医疗人工智能的诊疗效果和安全风险信息。前述《人工智能辅助诊断技术管理规范》第3条规定:“使用人工智能辅助诊断技术的医疗机构,应当建立数据库,定期进行评估,开展机构内质控工作,在完成每例次人工智能辅助诊断技术临床应用后,应当按要求保留并及时上报相关病例数据信息。”但是,该项报告义务的法律层级不高,强制力不足,影响了该制度作用的发挥。国外有关教训值得我国引以为戒。美国食品与药物管理局要求医疗机构报告机器人手术所导致的死亡及受伤事件的数据,但其无权强制要求提供,导致许多医院并不报告,只能部分揭示机器人手术的医疗风险。我国应当汲取其教训,将以上报告义务升级为法律义务,补充到《基本医疗卫生与健康促进法》等法律法规中,使该报告义务具有更强的法律强制力。此外,国家卫生健康监管部门应将这些病例数据进行分类、整理和分析,形成年度医疗人工智能白皮书向社会发布,及时公告医疗人工智能的诊疗效果、安全风险以及设备故障等信息,作为医师了解相关内容和向患者充分说明告知或者推荐给患者知悉的官方信息渠道。此外,医疗人工智能研发、生产和提供者最了解其产品或服务的优缺点,对其诊疗效果和安全风险有最深入、专业的知悉渠道,应当承担相应的法律义务,包括:及时向国家卫生健康监管部门和使用单位通报其产品或服务的诊疗效果和安全风险;对使用单位的相关医师开展必要的培训;解答与其产品或服务相关的技术和医学知识问题;不得采取不正当方式影响医师,使之违背患者最佳利益原则推荐医疗人工智能产品或服务等。违反以上义务要承担法律责任,触犯刑法的,应追究刑事责任。

其次,在前述信息披露制度体系下,医师直接或者间接提供了医疗人工智能辅助诊疗相关信息的,应认为履行了说明告知义务。医师应当向患者充分说明自己在业务知识和能力范围内了解的医疗人工智能疗效和风险信息,对自己不了解的官方公布的信息,应当向患者告知官方公布信息的获取途径,对于各种诊疗措施和方式的效果和风险应当尽可能全面说明告知。

具体而言,除了前文提到的说明内容,医师必须充分说明以下几方面内容:(1)本专业领域关于患者疾病诊疗的常规方法和方案及其效果和风险;(2)本人经历的医疗人工智能辅助诊疗实际案例体验;(3)本专业的全国性医疗学会组织关于医疗人工智能辅助诊疗效果及风险的评价;(4)本人在学习科研中掌握的关于医疗人工智能辅助诊疗效果及风险的病例和文献资料中的导向性结论;(5)国家卫生健康监管部门发布的本专业领域医疗人工智能疗效和风险的信息及其获取途径,其中包括但不限于以上监管部门的详细联系方式。需要注意的是,在推进医疗人工智能的使用上,医疗人工智能生产商与医疗机构及医师存在同向利益,为了防止生产商使用不正当的手段推介医疗人工智能,损害患者的利益,从维护患者最佳利益原则出发,当医疗机构、医师接受了医疗人工智能研发、生产、销售或者推销机构的各种形式的资助,或者涉及其他财务利益的,应当在向患者提供人工智能辅助诊疗服务前予以告知,否则可以认定为违反充分说明告知义务。

四、医疗人工智能应用中医师的注意义务与注意能力

医师严重不负责任,造成就诊人死亡或者身体健康严重损害后果的,构成医疗事故罪。医疗事故罪是业务过失犯罪,认定该罪必须确认医师是否违反了注意义务和具有注意能力。医疗人工智能应用改变了医疗活动的环境和条件,出现了医师难以认识或避免的后果,有必要分析其对医师注意义务和注意能力的影响,合理认定医师的法律责任。

(一)医疗人工智能应用中医师的注意义务

关于医疗事故罪的注意义务,理论和实践中存在不同观点。刑法学通说认为,注意义务包括结果预见义务和结果避免义务。“从设立注意义务客观性要求上说,就是‘避免结果发生’。”43违反结果预见义务导致无法避免危害结果的发生,故注意义务的核心是结果避免义务。医疗事故罪的注意义务是要避免“就诊人死亡或者严重损害就诊人身体健康”,但其具体内容在刑法中没有规定,需要依据其他法律法规来确定。我国《侵权责任法》第57条规定:“医务人员在诊疗活动中未尽到与当时的医疗水平相应的诊疗义务,造成患者损害的,医疗机构应当承担赔偿责任。”第60条规定:“患者有损害,因下列情形之一的,医疗机构不承担赔偿责任:1.患者或者其近亲属不配合医疗机构进行符合诊疗规范的诊疗;2.医务人员在抢救生命垂危的患者等紧急情况下已经尽到合理诊疗义务;3.限于当时的医疗水平难以诊疗。”该法规定了“与当时的医疗水平相应的诊疗义务”“符合诊疗规范的诊疗”“紧急情况下已经尽到合理诊疗义务”以及“当时的医疗水平”等,划定了一般情况和特殊情况下医师的诊疗义务。医疗事故犯罪与相关侵权行为违反的诊疗义务相同,只是违反注意义务的程度严重并导致前述严重后果,因此,可以通过分析“与当时的医疗水平相应的诊疗义务”“符合诊疗规范的诊疗”和“合理诊疗义务”,来研究医疗人工智能应用环境下医疗事故罪的注意义务。

1.医疗人工智能对“当时的医疗水平相应的诊疗义务”的影响

认定“与当时的医疗水平相应的诊疗义务”的关键是确定当时的医疗水平。日本刑事司法中将其称为“医疗水准”,是认定医疗过失的判断标准。日本最高裁判所昭和36年对东京大学附属医院输血致梅毒感染案的判决提到,凡从事人类生命健康管理业务者,与之业务性质相适应,要求负有防止危险的实际经验上必要的最善的注意义务,该注意义务的基准为诊疗当时的临床医学实践中的医疗水准。44相比于前述侵权法的规定,诊疗义务的判断标准限定为“诊疗当时的临床医学实践中医疗水准”。当该标准与“防止危险的实际经验上必要的最善的注意义务”发生冲突时,即医师以其个人实际经验认为可以采取的防止危险的诊疗手段,是否受当时的临床医学实践中医疗水准限制,提出了诊疗当时的“医学上的医疗水平”是否能作为判断标准问题。45日本学者松仓丰治将医疗水准分为“学术上的医疗水准”和“实践上的医疗水准”,前者因为没有在实践中普及而不能作为注意义务的判断标准,但随着医学的发展可能转变为实践上的医疗水准。笔者认为,“学术上的医疗水准”不能作为注意义务的判断标准,不仅因为未达到普及使用,而且因为其研究并未完成,治疗效果和风险尚不清楚;如果将其采纳为注意义务基准,将迫使医师进行高风险的诊疗活动,不仅剥夺了患者的知情同意权,而且会损害患者的最佳利益。虽然以诊疗当时的临床医学实践中医疗水准作为医师注意义务的判断标准也有不足之处,但是相对而言更为妥当。

目前医疗人工智能主要影响“学术上的医疗水准”,不具有改变“实践中的医疗水准”的现实意义,在其发展成熟并普及使用后,将提升医学实践的医疗水准,扩大医师注意义务的范围。根据前文分析,当前医疗人工智能的发展还处于学术研究和实验阶段,未达到成熟和普及程度。从医疗人工智能应用的规范化看,虽然我国制定了《人工智能辅助诊断技术管理规范》,但制定的时间不长,规定的内容较为原则,医疗人工智能应用规范尚不完善。因此,当前医疗人工智能发展只能影响学术上的医疗水准,而不足以改变实践中的医疗水准。医师使用医疗人工智能达到较高医疗水平的,医师的注意义务仍应按照传统方式下的医疗一般水准来确定;如果使用医疗人工智能加大了诊疗风险的,同样是按照该医疗水准来认定医师的注意义务。例如,医师使用达芬奇手术机器人进行妇科肿瘤手术的,应按照开腹手术的医疗水准来确定医师的注意义务,不因使用了手术机器人而降低其注意义务的基准。未来医疗人工智能技术会更先进,医疗人工智能应用会进入医疗规范和准则,在各地各级医院普及应用,不仅会提高医学上的医疗水平,还会提高实践中的医疗水平;在此情形下,医师的注意义务不再只看医师个人的实践经验和能力水平,医疗人工智能设备本身的智能水平也是考虑的内容。如果医疗人工智能设备提供了最优诊疗方案和不推荐方案,医生就应当对不推荐方案的医疗风险有注意义务,在人机协同“二位一体”状态下评价医师的注意义务,从而扩大医生的注意义务范围。

2.医疗人工智能对医师注意义务标准的影响

在传统医疗环境中医师直接管控诊疗活动,而在医疗人工智能应用环境下部分诊疗活动由医疗人工智能处置,因而认定医师注意义务的标准理应有所调整。关于医师注意义务的认定标准,医事刑法理论上存在合理的医师标准与理性的医师标准的争论。前者也被称为医疗常规标准,与日本刑法中的“医疗的一般水准”含义相同,是指“以一般的医师在当时所知悉的医疗的‘一般水准’作为基准,即‘对该医师所要求的注意义务程度,当出现特殊的因素的情形另当别论,应以专门医师在一般情形中,应该尽到的注意义务为基准’”。46该标准刚性、具体、容易判断,在日本处于主流观点地位。但是,该标准也被批评会“致使医师小心谨慎、墨守成规,不敢偏离常规而采取具有一定医疗风险的医疗行为,哪怕是对病人、对社会的健康福利都是有益的”。47“一位医疗人员遵守了行业内的普遍做法并不等于他尽了一个合理人的合理注意,业内人士的通常行为标准不同于一个合理人应当具备的行为标准”,48实质上存在医疗过失。在我国也存在类似的观点分歧,如在陆某因葡萄糖酸钙输液导致酮症酸中毒案中,医疗鉴定机构采纳合理的医师标准,而法院则持理性的医师标准。49有论者认为,如果采纳理性的医师标准会导致社会为发现少数糖尿病患者付出巨大的社会成本。50评价以上两种标准有必要先讨论医疗行为的价值取向。理性的医师标准以维护患者的生命健康权利为根本,虽然会增加一定的诊断成本,但是,相对于患者身体受损的后果,这个成本是必须付出的。事实上,完全可以通过优化管理、采用新技术等方法降低诊疗成本,而不是迁就诊疗习惯让患者承受生命健康受损的后果。除非有紧急情况,医师应遵守理性的医师标准,遵循患者最佳利益原则,否则应认为违反注意义务。理性的医师标准与合理的医师标准是相互补充关系,在一般情况下,医师既应遵守合理的医师标准,又应根据具体患者情况遵守理性的医师标准。如中老龄的中国人患糖尿病的比例较高,医生在决定使用葡萄糖输液前,应履行检查血糖水平的注意义务。

医师监管医疗人工智能实施的诊疗活动一般应遵循合理的医师标准,在审查验证医疗人工智能的诊疗建议、监督其操作过程中应尽到理性的医师注意义务。在常规医疗活动中,人机协作环境下的医疗一般水准主要受系统的先进性程度影响,医疗人工智能遵循标准化程序,直接处理各环节主要诊疗事务,让医师掌控医疗人工智能的每一步操作既不必要也不可能,医师只需要严格按照操作规程应用,遵循合理的医师标准,就应认为尽到了医师注意义务。但是,医疗活动不同于自动驾驶汽车应用,它具有高度专业性和医师行为的亲身性,医师与医疗人工智能的关系是使用者与被使用物的关系,后者智能性、完善性、安全性程度再高,也离不开高素质医师的妥善使用。在人机协同“二位一体”的诊疗模式中,医师不能脱离控制者位置,必须对诊疗活动全程进行实质而非形式的审查、验证和监督,警惕系统故障和错误并及时采取补救措施。在应对非常规的、疑难、复杂病情时,更需要医师独立诊断和治疗,亲自处理全过程的诊疗事务。即使未来发展出贯穿医学检查、临床诊疗方案决策和手术的一体化医疗人工智能系统,其诊疗操作过程也应严格遵守医疗常规,医师仍然负有实质的审查、验证和监督责任,对疑难病症和存疑的诊疗建议应亲自比对、检查和召集相关医师会诊,全程在场控制监控手术过程,对异常的手术操作及时制止和修正。否则,不能认为其尽到了理性的医师诊疗义务,应当对医疗事故承担责任。

(二)医疗人工智能对医师注意能力的影响

医师对具体危害结果具有注意能力是成立医疗事故罪的必要条件。“注意能力也称为认识能力、预见能力。成立犯罪过失,应以具有预见能力为前提,这是因为法律不能强人所难;如果行为人没有能力预见时,不能令其承担过失罪责,……应以行为当时具体条件下其本人的认识能力和认识水平为标准。”51“结果的具体形态以及因果过程的本质要素,应当是可以预见的。”52现代医疗活动具有多环节分工、多科室协同、多种方式协作等特点,并非只有医师个人的亲身诊疗行为,而是医疗团队使用多种现代医疗设备设施协作,实施多种类的诊疗活动。因此,认定医师的注意能力,需要以现代医疗环境条件为基础,判断医师是否对具体危害结果及因果过程有预见可能性。在现代团队医疗活动中医师的注意能力受到多方面限制,至少包括以下两方面:

1.受限于医疗行为专业分工合作。现代医疗活动分工细致,部分诊断行为完全独立,如CT、X光等医学影像、病理检查、麻醉等。下游医师对这些独立诊断行为的错误不可能认识和预见;同时,基于对医师的职称、工作经历以及团队合作的信任,在常规上也应当采取信任的态度,应相信他人诊断结论正确,并基于此实施本人的医疗行为,除非明显违背医疗规范。关于手术医师不具有预见可能性的理由,有学者采用信赖原则理论来解释,认为,在手术医师与“水平分工”的医师(如药剂师、麻醉师等)之间适用信赖原则阻却医师责任,而“在垂直分工的情况下,应当对护士等医疗参与者的个人资质进行个别考察,以决定能否适用信赖原则”。53信赖原则是从德国交通事故刑事判例中发展起来的责任阻却理论,作为一种超法规的排除犯罪性事由,将其移植到医疗事故罪的认定中存在较大争议。在2003年日本“横滨市大弄错手术患者案”中,日本法院就没有采纳信任原则理论的解释,将包括信任护士的执刀医师和麻醉师在内的所有医务人员都认定有罪。54发展信任原则理论的目的,是要解决对危害后果的注意能力问题,医务人员之间存在业务上的信任关系并非当然否定注意能力,应当对具体情形进行考察。执刀医师对手术现场负有总体责任,术前已清楚掌握患者症状,在手术过程中能认识不正常的病征;如果其能从现场助手和检测仪器的反馈中察觉异常,无论是对于处于竖直分工的护士还是水平分工的麻醉师的错误行为,都应当认为具有注意能力;55如果确实不能,应认定执刀医师没有注意能力。

2.受限于医疗设备设施的操作行为范围。医疗设备设施的应用也会影响医师的注意能力,如医学影像设备、生化分析仪、心电图机等故障导致的医师误诊漏诊,手术过程中输液泵、注射泵、呼吸机故障导致的医疗事故等。医师对医疗设备设施的故障及所致后果的注意能力应限于操作行为范围,如果医师按照使用规程进行操作,按照一般医务人员标准来判断没有收到异常信息反馈的,应当认为医师对设备设施的故障及其后果没有注意能力。理由是:医疗设备设施的安全标准高,医师相信医疗设备设施可靠有制度保障;医疗行为高度专业化,医师必须专注于医疗行为,不应当要求医师关注非本专业领域的事务;医疗设备设施的物理化学特性属于非医学领域知识,发生故障的可能性及其后果超出了医师专业知识能力范围,要求医师对其有超常的预见能力,是强人所难。

医疗人工智能是特殊的智能医疗设备,既不是医疗行为主体,也不同于人工预设操作过程的普通医疗设备设施,医师使用医疗人工智能时,认定其注意能力的标准不同。

首先,医疗人工智能是辅助性诊断决策系统,不是医疗行为主体,不存在基于对其信任而降低注意能力的法律依据和理论基础。《人工智能辅助诊断技术管理规范》将“具有人工智能的嵌入式临床诊断与治疗仪器设备”划入仪器设备的范围,医疗人工智能被定义为“计算机辅助诊断软件及临床决策支持系统”,其输出信息“仅作为临床辅助诊断和参考,最终诊断必须由有资质的临床医师确定”。这意味着医师必须充分运用专业知识和能力检查验证医疗人工智能输出的信息,不允许以医师相信医疗人工智能为由升高其注意能力的认定标准。而且,在刑法理论上,无论是在交通事故领域还是医疗事故领域,信任原则理论讨论的是对其他自然人的信任是否影响注意能力,医疗人工智能不具备自然人主体和医疗行为主体地位,不适合适用信任原则理论判断医师的注意能力。

其次,医疗人工智能是具有不确定性的智能设备,医师对这一特性及其可能导致的后果具有认识可能性。普通医疗设备设施不具有独立的分析、处理和决策智能,其功能通常是医疗数据的采集记录、预设逻辑的信息处理、人工控制的医疗操作等,医师起绝对控制作用。而医疗人工智能则不是医师可以绝对控制的设备,它不仅具有普通医疗设备设施的全部功能,还能在授权范围内运用自身智能进行一定的医学分析、判断、决策和治疗,机器智能与医师智能相接合,共同影响医师的诊疗活动。56医疗人工智能分析、处理诊疗信息的过程具有不可解释性,处理结果在一定程度上具有不可预见性,医师无法了解其分析过程,获得对结论的解释。仅因其具有较高的精准诊疗概率而不得不接受医师,能够认识到其提供的信息和操作活动有可能发生错误,对医疗人工智能应用的危害后果不能排除有预见可能性,即具有注意能力。

医疗人工智能的技术特性使医师在回避其应用风险时面临两难境地。一方面,医疗人工智能具有改善医疗服务的现实价值。经过长期的数据学习和功能改进,医学人工智能在诊疗效果和安全风险控制上会越来越好,能在一定程度上替代医师的部分专业分析和处置工作,减轻医师的工作负担,医师无法拒绝其提供的信息或者使用其替代人工诊疗,否则,医疗人工智能应用就没有实际意义。另一方面,医疗人工智能的技术特性使医师无法获悉其分析、处理的过程和遵循的医学知识逻辑;如果不相信医疗人工智能,就要回到完全依赖人工的传统医疗模式,患者、医师、社会都不能享受到医学现代化的进步成果;而医生相信医疗人工智能又会使自己承担其发生错误的法律后果。对于前述困境,在传统刑法理论框架内找不到解决办法,应当通过建立有益的医疗人工智能发展制度,合理认定医疗人工智能应用环境中的医师注意能力。

首先,我国应当发展以人为本的、有益的医疗人工智能。发展有益的医疗人工智能,一方面要以患者为中心,提高诊疗效果,降低诊疗风险。另一方面要服务于医师,减轻医师的工作负担,促进医师专业技能发展,不能单纯追求快速发展,动摇人工智能有益于人类的发展宗旨。应建立综合性医疗人工智能应用的安全风险监控体系,从社会管理部门和行业人员两个方面保障医疗人工智能的安全、高效发展;既不能单纯追求医疗人工智能的快速应用,也不能脱离医疗人工智能应用的客观实际,片面强求医师提高注意能力。国家卫生健康管理部门应当规范医疗人工智能应用。应当建立医疗人工智能应用安全验证和准入制度、诊疗效果国家标准、医疗机构强制报告和不合格医疗人工智能强制退出制度,严格控制医疗人工智能的应用范围,确保医疗人工智能辅助诊疗结果近零错误率,确保医疗人工智能产品的安全、高效;还应当向医疗机构和医师及时反馈各类医疗人工智能故障和不良结果率,为医师认识医疗人工智能的可靠程度及其可能的应用后果创造条件。

其次,医师应当坚持医疗行为主体意识,全程检查、验证和监控医疗人工智能应用,对其危害保持合理的注意。对于符合国家法律法规标准的医疗人工智能,医生在一般情况下可以相信其安全、可靠,对其正常应用导致的危害后果不具有注意能力。但是,如果其应用明显异常,如其提供的结论或者建议明显违反医学知识和医疗常规,或者手术机器人的操作可能严重损害患者生命健康,医师对危害后果显然具有注意能力。医师对医疗人工智能应用未尽到全程检查、验证、监控义务,以至于没有察觉到以上异常应用情况,或者未及时停止其应用并补救,导致严重损害患者生命健康的,应当认定其对危害后果具有注意能力。在实践中,医疗人工智能诊疗的高精准率对医师的诊疗行为有实质性影响,可能损害医师独立诊疗主体地位。如,担心自己的诊疗行为与医疗人工智能的结论不一致或者人工操作风险更大,医生不再坚持独立判断,完全依赖于医疗人工智能系统,导致医师诊疗主体地位的虚化,使医疗诊疗风险在医疗人工智能系统内部闭环放大,损害患者的生命健康,妨害医疗健康事业的正常发展。因此,在制度设计上,不得将医疗人工智能诊疗建议和操作效果作为评价医师是否履行注意义务的依据,更不得要求医师必须使用医疗人工智能、采纳其建议,医师不使用医疗人工智能的,应按照传统医疗行为标准认定医师的注意能力。

五、结语

医疗人工智能的发展方向是高度的专业化和智能化,而不是产生“自主意识和意志”,成为医疗行为主体,不能成为医事刑法中犯罪主体和责任主体,在刑法中处于客体地位,是被利用、保护和管理的对象。医疗人工智能改变了传统医疗活动,对医事犯罪的成立有实质性影响,医师的说明告知义务、医疗事故罪中医师的注意义务与注意能力判断标准需要进行调整。应坚持以患者为中心,建立有益的人工智能发展制度,在监管部门、医师和患者之间合理分配医疗人工智能安全风险防范责任;同时,推动医事刑法及相关理论的发展创新。

医学从根本上是人学,每位患者都是独一无二、不能重来的生命,对病患的人文关怀是医疗活动的重要组成部分。医疗人工智能的科学基础是数理逻辑,只能进行基于逻辑思维的信息处理,无法完成需要人类感性思维、形象思维、灵性思维、社会思维的工作,客观上也不存在棋类人工智能具有的亿万次试错训练条件,未来不可能完全替代医师的工作,其发展方向只能是医师监控下的人机协同。法律制度应保障人机协同医疗的发展,客观回应医疗活动变革的事实,及时完善医疗人工智能相关法律法规,这也是医疗人工智能相关刑法问题研究的起点和重点。

(本文为文章摘录版,如需引用,参阅原文)

文章来源:法律科学(西北政法大学学报)2021,39(01)


文献数据中心|DATA CENTER

© 2009-2024 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc