1. 引言
在医疗领域,人工智能技术的应用已拓展至治疗、诊断、药物研发等多个维度。2024年规划发展与信息化司发布的《国家卫生健康委员会办公厅关于印发卫生健康行业人工智能应用场景参考指引的通知》对“人工智能+”医疗服务管理领域中具体人工智能技术运用的场景进行了指引,主张利用人工智能技术,更加精准和全面地为医生提供治疗方案,避免过度诊疗和误诊误治等问题的发生。与其他应用场景相比,“人工智能+”医疗服务管理中医疗纠纷的发生概率更高。当前人工智能系统在医疗服务领域应用日益广泛,在医患互动中的中介作用愈发显著,同时亦增加了医患纠纷发生的可能性。基于此,因人工智能侵权而产生的医疗纠纷案件中,相关主体责任的认定面临着严峻的挑战。因此,明晰责任主体、确定侵权责任成为了更好地解决医疗纠纷、构建和谐医患关系的题中应有之义。
2. 人工智能在医疗服务管理领域的应用现状
人工智能是新一轮科技革命和产业变革的重要驱动力量,当前在各大行业发挥着不容忽视的作用。据预测,全球人工智能(AI) IT总投资规模有望在2027年增至5124.2亿美元①。到2028年,70%的医疗卫生行业将利用人工智能技术来解决医疗环境中的数据和工作流程碎片化问题,以改善诊断和患者安全②。由此可见,目前及未来一段时间内,医疗行业对人工智能技术将持续保持高度关注。现如今,人工智能技术在医疗领域的应用不仅限于辅助诊断,还包括个性化治疗方案的制定、药物研发、医疗影像分析等多个方面。从国际层面来看,IBM的WatsonOncology能够为癌症治疗提供个性化的建议。此外,谷歌DeepMind开发的人工智能系统在眼科疾病的诊断上,准确率已达到甚至超过了专业医生的水平。
在我国,《关于进一步完善医疗卫生服务体系的意见》强调了“互联网 + 医疗健康”的发展路径,并倡导在医疗卫生领域中广泛运用互联网、人工智能等前沿技术。近年来,我国不断加强顶层设计,推动“AI + 医疗”领域的快速发展。具体实践层面,腾讯医疗人工智能实验室开发了帕金森病运动功能智能评估系统,可辅助诊断和早期筛查帕金森疾病,提升诊断的准确性和效率③。科大讯飞的讯飞星火医疗大模型④是智慧医疗的典范,集成了人工智能技术,构建了智能辅助诊断和影像分析系统等创新应用,增强了医疗服务的效率和质量。
但是,技术发展的过程中不应忽视完善法律、伦理和社会治理的框架的重要性。特别是在人工智能主体资格认定和侵权责任划分等核心法律问题上,需要进一步完善法律法规制度,从而维持技术创新和防范化解风险二者之间的平衡,确保人工智能能够在医疗领域顺利安全发展,最终惠及患者和整个医疗体系。
3. “人工智能+”医疗服务管理中的侵权责任挑战
人工智能在医疗领域的风险可以包括技术安全风险、伦理风险和法律风险等,在应用过程中存在多种不确定因素[1]。从法律层面来看,人工智能在应用时会涉及人工智能模型设计者、人工智能系统提供者、生产者和用户等多方主体[2],侵权责任的认定存在难点。目前,学术界对于人工智能在医疗领域引发的侵权责任问题存在分歧,特别是在产品责任和诊疗损害责任的适用上颇具争议。
3.1. 人工智能成为责任主体的可行性存疑
3.1.1. 人工智能不具有民事权利能力和民事行为能力
从法哲学角度出发,法律主体应当具备自由意志并且拥有法律赋予的权利与义务的资格。从法律主体概念的阶层式标准体系角度出发,法律主体在具有自由意志的基础上,应该同时是理性主体和感性主体[3]。人工智能是否需要在医疗侵权中承担民事责任,首先需要明晰人工智能是否能够成为法律主体,是否具备民事权利能力和民事行为能力。
我国《中华人民共和国民法典》(以下简称《民法典》)第13条⑤和第59条⑥规定了自然人和法人的民事权利能力。其中,自然人是指生物学意义上的人,具备自我意志和行为动机;法人要有自己的名称、组织机构、住所、财产或者经费。而人工智能是对人类行为进行模仿的基本理论、方法和技术,不属于自然人和法人的范畴。
权利能力应被视为最基本、最低限度的主体资格[4]。从人工智能的法律地位来看,人工智能不具备自由意志,遵循设计者规定的程序运行。尽管人工智能在某些方面表现出较强的自我学习能力和高度的智能性,但其并不具备人类的生物属性和社会属性,也无法享有民事权利、承担民事义务。从民事行为能力的角度来讲,人工智能在特定情况下做出的意思表示,实际上是人工智能控制人的意思表示[5]。在法律体系中,人工智能被视为一种工具或技术手段。而在医疗活动中,不论是基层全科医生智能辅助决策,还是医学影像智能辅助治疗等应用情形,都是将人工智能置于辅助地位,具体治疗方案是否得以实施还需要基于医生的再判断义务[6]。因此,人工智能不能成为独立的责任主体。对于相关医疗行为,实际承担注意义务和侵权责任的主体,依旧是相关的生物人[7]。例如,在英国首例达芬奇机器人心脏瓣膜手术事故中,主刀医生奈尔未按规定进行充足的机器人手术模拟训练,且未告知患者其是第一个用机器人做心瓣手术的人。在手术过程中由达芬奇机器人操作的病人心脏的缝合位置和方式都不对,最终使患者死于多器官衰竭。该案尽管手术机器人存在一定问题,但其不能成为责任主体,而主刀医生的操作过失和医院的管理不善是导致事故的主要原因,责任应当由医院和医生承担。
3.1.2. 人工智能无法应对伦理难题
《大模型人工智能技术在医疗服务领域应用的专家共识》指出:在医疗服务领域,应用人工智能应遵循《人工智能伦理建议书》中的四大价值:尊重、保护和提升人权及人类尊严,促进环境与生态系统的发展,保证多样性和包容性,构建和平、公正与相互依存的人类社会[8]。不论是弱人工智能时代亦或是强人工智能时代,都不应当违背社会基本道德准则和伦理原则。
在医疗资源分配的语境下,算法本身具有中立的价值属性。然而,当行为主体利用人工智能算法介入基因治疗或器官移植等领域时,可能会面临逾越医疗人工智能伦理框架的风险[9]。同时,人工智能也无法理解和尊重患者的自主权,无法就治疗方案与患者进行有效沟通,在处理医患关系时展现出人文关怀。
3.2. 产品责任与诊疗过失责任的界定存在争议
依据现行法律架构,人工智能在医疗服务管理侵权案件中可能承担的责任涵盖诊疗损害责任、产品责任、告知责任以及侵犯患者隐私权和个人信息的损害赔偿责任。实践层面,产品责任与诊疗损害责任的适用争议尤为显著,它们凸显了人工智能侵权的特殊性。因此,本文将重点探讨产品责任与诊疗损害责任的界定中面临的问题。
3.2.1. 人工智能的产品属性问题
产品是指被人们使用和消费,并能满足人们某种需求的任何东西。《中华人民共和国产品质量法》中明确规定了法律当中产品的定义。人工智能能否被认定为“产品”,当前理论界仍存在争议。有学者认为,将软件纳入“产品”的范畴并实行严格责任,会阻碍科学技术的发展和进步,所以人工智能作为一种软件,不应当认定为产品[10]。
但是,确立人工智能的产品属性对保障医疗安全至关重要。在医疗领域中仅从公平效率的价值角度来分析人工智能不具有产品属性,该理由的支撑力似乎略显薄弱。欧盟在《欧洲人工智能》报告以及《可信赖的人工智能道德准则》中对人工智能的道德和法律规定进行了明确,从制度层面发展“以人为中心”的人工智能[11]。由此可见,人工智能的发展离不开人类的需求。从法理角度而言,法的价值位阶原则表明在不同位阶的法的价值发生冲突时,在先的价值优于在后的价值[12]。医疗服务领域中人工智能的使用往往面临价值冲突,但若因担心阻碍科技发展而回避将人工智能纳入“产品”范畴,则可能忽视公众对于安全的基本需求。我国《医疗器械监督管理条例》⑦中规定了医疗器械的概念。人工智能作为技术软件,在医疗领域发挥着重要作用,理应被归类为医疗器械范畴,属于产品的一种。例如,在实际医疗场景中,人工智能辅助诊断系统能够对患者的影像资料、生理数据等进行分析,为医生提供诊断建议,这一过程便是医生人工智能医疗器械的体现。将人工智能纳入产品范畴,不仅符合法律法规的规定,而且也有助于保障医疗安全,维护社会公众的健康权益。
3.2.2. 人工智能的“黑箱”难题
人工智能的运行依赖于算法,而算法的非公开性与不透明性均可以被定义为“算法黑箱”[13]。建立在这种算法基础之上的人工智能思维模式异于人类思维模式,其输出结果有可能出乎人类的理解能力、预见能力[2],从而影响产品缺陷的认定。同时,人工智能的“黑箱”问题将影响因果关系认定,由于存在信息差,被侵权人在证明因果关系方面处于弱势地位。相较于传统侵权案件,人工智能侵权案件中的因果链条更为冗长、复杂且透明度较低,被侵权人难以理解其运行机制,同时也影响侵权责任的认定。因此,需通过降低证明标准或者举证责任倒置的方式保护被侵权人[14]。
此外,人工智能“黑箱”也会进一步加剧医患双方之间的信任危机。一方面,在人工智能的影响下,医务人员在诊疗活动中会丧失一定的自主性,在面对一些病情时,人工智能已经可以及时作出决策并向患者作出反馈,使得医生的决策权受到影响。另一方面,诊疗过程面临信息不透明的风险。医患双方均无法了解人工智能作出医疗建议的具体逻辑和运行机制,导致患者对医疗决策的可靠性产生质疑,从而加剧医患矛盾[15]。
3.2.3. 医务人员“诊疗过失”的认定困境
人工智能系统的介入使得医患双方关系变为了“医–机–患”三方关系,法律关系更加复杂。同时,“信息茧房”效应的影响下,医务人员更加难以创新诊疗方案,在使用人工智能系统时可能存在误判或过度依赖的情况,导致医务人员的“去技能化”。在此情形下,“人工智能+”医疗服务管理领域中发生医疗纠纷,医务人员的“诊疗过失”认定将影响侵权责任归属。
医务人员“诊疗过失”的认定困境主要体现在以下几个方面:一是医务人员对于人工智能系统的认知和应用能力参差不齐;二是人工智能系统的输出结果可能受到多种因素的影响,包括数据质量、算法设计、系统稳定性等;三是医务人员在面对人工智能系统输出的诊疗建议时,可能存在过度依赖或忽视的情况,存在诊疗过失。而当前《民法典》中规定的诊疗过失的认定标准为是否尽到“与当时的医疗水平相适应的诊疗义务”。其中,“是否与当时的医疗水平相适应”的认定具有复杂性。人工智能具有卓越的学习能力,特别是人工智能在深度学习模式下提供的治疗方案等成果可能涵盖了国际社会的最新理论进展,此时,医生的工作压力与核实这些治疗方案并学习相关理论会产生冲突,进而影响诊疗过失的认定。
4. 人工智能医疗侵权责任问题的因应之策
“人工智能+”医疗服务管理涉及医疗服务、医药服务等多个方面,与公民的个人权益息息相关,因此,应当高度重视其可能引发的侵权责任问题。在界定人工智能辅助地位的基础上构建明确的责任划分机制,从人工智能面临的内在风险和外在风险角度构建双重风险应对框架,以期更好地保障“人工智能+”医疗服务管理的健康发展,确保构建和谐的医患关系。
4.1. 明确界定人工智能的辅助地位
肯定说学者认为,将机器视为法律下独立的“人”,赋予人工智能“人格”可以应对人工智能带来的挑战。在这种人格模式下人工智能将有自己的责任和职责⑧,从而避免责任主体认定过程中带来的困难。否定说认为,即便是强人工智能也无法离开人类活动的逻辑和规则,人工智能是人类智能的技术性延伸,并不具有主体性意识[16],因而不能作为法律主体。折中说在一定程度上肯定了人工智能的主体人格和地位,但在差异性逻辑的基础上确认了人工智能人格的非完全性和部分性。有学者认为,可以借助功能分析法,从人工智能与其他社会单位之间的关系中评估是否需要赋予其主体资格,从而对人机交互关系进行合理调整[17]。当前学界针对人工智能的主体地位尚未有统一的结论,但在客体论视角下构建人工智能的法律规则,是对人类主体性的保证。特别是在医疗领域,必须明确界定人工智能的辅助地位,以免对医生职业地位产生不利影响。
有学者认为当前处于弱人工智能时代,理应认定人工智能的辅助地位,而若未来发展到强人工智能时代,则可以通过立法赋予其法律人格[18],此种观点忽略了人工智能“物”的属性和人类的主体性。人工智能的作用是代替人类从事一定的劳动,可以作为一种直接提升生产力的工具存在,但其并没有统摄性的自我意识,无法成为法律上的适格主体[19]。人工智能在医疗服务中的设计和使用应始终以增强医生的诊断和治疗能力为目标。这意味着,人工智能系统应当提供准确、可靠的信息和分析,帮助医生做出更为精准的判断,而不是取代医生的专业知识、经验以及地位。人工智能作为人类智慧的产物,其运行机制和发展方向需受到人类的监管与控制,可以参照适用《生成式人工智能服务管理办法》中的相关规定,以确保其不会对患者的健康和安全造成任何潜在威胁。总之,不论人工智能发展到何种地步,都应在客体论视角下对相关主体责任展开认定。特别是在医疗这一关乎人类生命健康权利的领域,更应当要求人工智能客体化,防止相关主体利用人工智能规避责任。
4.2. 正确适用产品责任与诊疗过失责任
4.2.1. 人工智能内在风险下应妥善适用医疗产品责任
人工智能系统判断错误会影响患者的治疗效果。若系统错误地推荐了药物治疗方案,不仅无法让患者达到药物预期的治疗效果,还可能对患者身体造成严重损害。此外,系统风险评估的偏差会误导医护人员对患者病情的观察分析,从而错误分配医疗资源,影响到其他更需要关注的患者[20]。上述问题主要源于算法本身的缺陷以及“黑箱”特性,属于人工智能的内在风险。如前所述,人工智能属于产品,因此存在适用医疗产品责任的空间。在人机协作诊疗模式下,若医务人员不存在过错,理应考虑适用医疗产品责任。
我国《民法典》第1223条⑨规定的医疗产品责任属于严格责任,且采用不真正连带责任,即在人工智能内在风险导致的侵权案件中,医疗人工智能产品的生产者是承担侵权责任的主体,出于对患者的保护,患者可以向医疗机构主张赔偿责任,但医疗机构承担表面责任,可以进一步向缺陷医疗人工智能产品的生产者进一步追偿[21]。在此情形下,“缺陷”的认定成为了认定相关主体是否承担医疗产品责任的关键。根据法律规定,生产者需要对人工智能的制造缺陷以及对没有向医方尽到警示义务的警示缺陷承担责任,对此有必要成立专门的人工智能医疗器械缺陷鉴定机构,判断生产者是否因产品制造缺陷而导致医疗侵权。另一方面,若生产者未能向医务人员充分履行其警示义务,致使医务人员无法履行其告知义务,则应认定人工智能生产者存在警示缺陷。除生产者外,人工智能的设计者需要对该产品本身的算法设计缺陷承担责任,可以采用理性算法标准来认定是否存在设计缺陷,即判断算法本身的合理性,认定人工智能在诊疗活动中的客观表现相比于市场上同类型的一般算法,是否符合一个理性算法应有的水平[6],从而判断人工智能的设计者是否需要承担医疗产品责任。
此外,关于人工智能在医疗领域的黑箱问题,由于该问题是人工智能无法避免的缺陷,故可以另寻他路采取不同策略,将算法“失控”转移至人们可接受的领域中,使其转化为可被人类接受的“失控”。具体而言,在应用前端确立符合医疗实践价值的技术设计。开发者和设计者需结合实际应用,依据科室、人群和医疗活动,确定产品功能和发展方向[22]。若开发者和设计者未在可控范围内尽到注意义务,使产品设计出现漏洞或缺陷,则需要对侵权造成的损害承担医疗产品责任;若开发者和设计者在可控范围内尽到了相应的义务,此时为了保护患者及其家属的利益,可以考虑构建无过错补偿机制,通过评估利益相关者的费用(例如,受算法影响的每位患者的费用或医生/从业者的费用)来实现公平正义[23]。
4.2.2. 人工智能外在风险下需适用诊疗损害责任
人工智能的外在风险是由于相关人员操作不当或者超出设计范围的操作等行为而导致医疗侵权的风险。此时,需要适用诊疗损害责任来追究使用者的责任。一般来说,在医疗服务管理领域,人工智能的使用者为医疗机构及其医务人员。
《民法典》规定的“与当时的医疗水平相适应的诊疗义务”是认定诊疗过失的关键。根据《最高人民法院关于审理医疗损害责任纠纷案件适用法律若干问题的解释》⑩的规定,医务人员诊疗过失的判断需要结合相关法规以及现实情况综合考虑。从域外视角来看,侵权法在很大程度上依赖于“合理人”标准来判定被告的行为是否存在过失。合理人是一个法律上的抽象概念,代表一般社会成员。该标准由法院采用以确定“在特定情境下,一个谨慎的人所应采取的谨慎的方式和程度”⑪。因此,在医疗服务管理领域的司法裁决中,评判医生的行为标准并非依据一个普通人应有的合理行为,而是基于一个具备同等知识、技能和专业水平的合理医生在相似情境下的行为⑫。在我国《医疗损害司法鉴定指南》中医疗过错的认定包括了违反具体规定、注意义务和告知义务的过错。违反注意义务中“以医疗纠纷发生当时相应专业领域多数医务人员的认识能力和操作水平”的表述其实也是对“合理医生”标准的肯定。
当前在人工智能适用于医疗服务管理的背景下,基于“合理医生”标准,需要对医务人员的注意义务作出新的界定。人工智能可以结合相关技术生成临床诊疗方案、预警不合理处方以及对医生的用药行为作出决策建议等,对此,需在赋予医务人员再判断义务的基础上评估人工智能在无缺陷状态下提供方案的风险性大小。如果人工智能在无缺陷状态下提供的方案存在高风险,那么当医疗损害发生时,应仔细审查医生是否充分理解并遵循了人工智能的建议,并且考虑具备同等知识、技能和专业水平的医生在当时情形下是否会做出同样的决策。如果医生盲目依赖人工智能的建议而未进行独立思考和判断,或者在人工智能的建议存在明显错误时未能及时发现并纠正,将认定其未履行再判断义务,存在诊疗过失。在此基础上需要进一步证明医务人员的过失行为对患者的损害的原因力大小[24]。如果医务人员的作为或不作为对患者损害的原因力较大,则可以认定损害与医务人员的行为之间存在因果关系,此时患方可基于《民法典》1218条⑬之规定要求医疗机构承担诊疗损害责任。
5. 结语
技术革新在医学领域扮演了至关重要的角色。人工智能在医疗服务管理领域的适用或将重新定义医学格局,改变临床实践并改善人类的生活。无论处于何种人工智能阶段,都应当在客体论视角下构建人工智能的法律规则,避免人工智能侵犯人类的主体性。同时,需要在人工智能侵权案件中准确认定责任主体,厘清人工智能设计者、生产者、使用者等多方主体之间的责任。特别是需要谨慎和妥善适用产品责任,在排除产品缺陷的基础上认定医务人员的诊疗损害责任。以公平原则为基础,在人机诊疗协作模式下合理分配各方责任和利益,既能够保证科技的安全稳定发展,也能够促进构建和谐的医患关系。
注 释
① 《IDC:中国生成式AI投资增长加速,五年复合增长率达86.2%》,IDC,
https://www.idc.com/getdoc.jsp?containerId=prCHC51997124,访问时间:2025年1月6日。
② 《IDC FutureScape:全球医疗健康行业2024年预测——中国启示:成功定位——技术销售和技术营销领导者的机遇》,IDC,
https://www.idc.com/getdoc.jsp?containerId=CHC51419423&pageType=PRINTFRIENDLY,访问时间:2025年1月6日。
③ 腾讯实现AI辅助帕金森病诊断:我们从来没有想过替代医生,腾讯,
https://www.tencent.com/zh-cn/articles/2200927.html,访问时间:2025年1月7日。
④ 讯飞晓医正式发布,打造每个人的AI健康助手,讯飞医疗,
https://www.iflyhealth.com/news/177/464.html,访问时间:2025年1月7日。
⑤ 《民法典》第13条:“自然人从出生时起到死亡时止,具有民事权利能力,依法享有民事权利,承担民事义务。”
⑥ 《民法典》第59条:“法人的民事权利能力和民事行为能力,从法人成立时产生,到法人终止时消灭。”
⑦ 《医疗器械监督管理条例》第103条:“医疗器械,是指直接或者间接用于人体的仪器、设备、器具、体外诊断试剂及校准物、材料以及其他类似或者相关的物品,包括所需要的计算机软件。”
⑧ AMAJEthics. 2019; 21(2): E160-166.
⑨ 《民法典》第1223条:“因药品、消毒产品、医疗器械的缺陷,或者输入不合格的血液造成患者损害的,患者可以向药品上市许可持有人、生产者、血液提供机构请求赔偿,也可以向医疗机构请求赔偿。患者向医疗机构请求赔偿的,医疗机构赔偿后,有权向负有责任的药品上市许可持有人、生产者、血液提供机构追偿。”
⑩ 《最高人民法院关于审理医疗损害责任纠纷案件适用法律若干问题的解释》第16条:“对医疗机构或者其医务人员的过错,应当依据法律、行政法规、规章以及其他有关诊疗规范进行认定,可以综合考虑患者病情的紧急程度、患者个体差异、当地的医疗水平、医疗机构与医务人员资质等因素。”
⑪ Brownv. Kendall, 60Mass. 292, 296. Mass. 1850.
⑫ Restatement (Third) of Torts§12 (AmLawInst2010).
⑬ 《民法典》第1218条:“患者在诊疗活动中受到损害,医疗机构或者其医务人员有过错的,由医疗机构承担赔偿责任。”
NOTES
*通讯作者。