汪青松 罗娜 | 替代还是支持:AI医疗决策的功能定位与规范回应

汪青松|西南政法大学中国特色金融法治研究中心研究员、民商法学院教授

罗娜|西南政法大学民商法学院博士研究生

本文原载《探索与争鸣》2023年第5期

具体内容以正刊为准

非经注明,文中图片均来自网络

在人工智能技术(AI)的驱动下,人类社会正逐步从互联网时代向算法时代过渡。在此背景下,AI在医疗实践中的应用因具备可以提高医疗服务的准确性、效率性和可及性等优点,而被视为当前医疗创新的核心领域。在AI医疗的具体应用场景中,贯穿医疗实践全过程的AI医疗决策更是被认为会对医疗服务行业产生变革性影响。然而,如同AI在其他领域的应用会对现有法律秩序形成冲击一样,AI应用也会对现行医疗决策法律框架下的权责利配置提出诸多挑战,患者知情权行使障碍、隐私数据保护不足、医疗事故救济缺位等便是典型事例。这些挑战已经对AI在医疗决策领域进一步释放技术效能形成了强大阻力,国内外学者也对此展开了学理讨论。有研究指出,AI医疗在近期和远期运用中可能存在功能差异,更多的研究则是从法律挑战、责任认定和损害赔偿等角度展开。

不过,现有研究普遍忽略了探讨AI医疗决策对法律秩序挑战的一个前置性问题,即AI应当在医疗决策中发挥何种作用?这一前置性问题之所以重要,是因为上述权责利配置失衡的根源在于AI挑战了医疗领域中人的自由意志,同时也改变了医疗决策控制权的分配方式;而AI医疗决策的功能定位差异会直接影响上述挑战的具体程度、呈现方式和应对策略。因此,讨论应对上述挑战具体思路的前提,是明确AI应当在医疗决策中发挥何种作用,即要回答AI医疗决策的功能定位问题。基于以上问题,本文以厘清AI医疗决策在技术力量的推动下呈现出何种功能趋势为基础,分析AI医疗决策在当前功能定位中面临的法律困境,并从历时性的角度对现代医疗决策模式演进的客观规律进行梳理,探寻其对当下AI医疗决策功能定位的有益启示,最后提出AI医疗决策的应然功能定位及规范回应。

500

AI医疗决策的技术基础与功能趋势

AI医疗决策这一具体应用场景的形成,依赖受AI驱动的自动化决策系统的运行。通过对医疗数据的收集、解释、推理和处理,AI医疗决策技术能够对当前医疗决策所处的客观环境进行理性分析,并以某一既定医疗目标为导向作出适宜的医疗决策。以若干核心技术为基础的AI医疗决策会产生特定的医疗决策效果,这些效果会影响医疗卫生人员在医疗决策中作出“是否引入AI医疗决策”以及“如何使用AI医疗决策”的行为选择,进而影响AI医疗决策在医疗决策实践中的功能定位。

(一)AI医疗决策的技术基础

AI医疗决策的产生与勃兴并非偶然,而是在大数据和机器学习技术快速发展与融合条件下的必然结果。“大数据”是一个在过去几年内被媒体和公众广泛使用的术语,它是指同时具备大量数据、可用数据类型的显著异质性和数据科学家或用户访问分析数据的快速性这三大特征的数据资产。不过,要想充分发挥大数据的资产价值,还需要有强大的搜索、聚合和交叉引用大数据集的处理技术,才能从大数据中得到远超人类可预见范围的有用信息,并为决策过程提供富有洞察力的信息支撑。在AI应用的具体场景中,机器学习技术恰好充当了挖掘大数据信息资产价值的最佳角色。机器学习技术是AI的一个技术子集,它是指在没有既定明确编程的情况下,通过收集、处理和分析大数据得出有用信息并形成学习模型,然后基于该模型所得出结论来进行训练。简而言之,大数据和机器学习技术相互融合并得以运用的过程包括“定义需要解决的问题”“收集和准备数据”“选择模型”“训练模型”和“评估测试模型”这几个阶段。模型一旦经过适当训练,就可以在同类型情况下进行预测,从而得出基于特定目标的行动方案。

在AI医疗决策领域,大数据的来源非常丰富,包括电子健康记录、医学文献内容、临床试验数据、保险赔偿数据和药房用药记录等,甚至还包括患者自行输入到智能手机或健康跟踪器上的数据,这些都为“数字化医疗”奠定了坚实的数据基础。以疾病诊断领域为例,为了充分发挥这些医疗数据在AI医疗决策中的应用潜力,开发者需要对机器学习模型进行训练,在大量的健康数据和患者数据中找到医疗决策模型,预测特定患者的患病风险,并据此给出针对特定患者的诊疗建议。例如,在医疗实践中,AI医疗决策中的机器学习模型已经可以预测特定患者患结肠癌或直肠癌的概率。

(二)当下AI医疗决策的功能趋势

依托大数据和机器学习技术,传统上由医疗卫生人员控制的医疗决策过程能够全部或部分委托给AI医疗决策。不过,在没有任何法律或政策干预的前提下,AI在医疗决策中发挥的功能,不仅取决于技术的可实现性这一客观条件,还取决于技术所带来的优势是否足以促使人类改变既往的主观行为选择。同样以疾病诊断领域为例,相比于传统医疗决策,AI医疗决策存在以下三方面显著的优势。首先,在人类已知疾病的诊断中,AI医疗决策的诊断准确率与医疗卫生人员相当,甚至在部分情况下比医疗卫生人员出现误诊的概率更低。比如,一个使用卷积神经网络(convolutional neural networks)的AI医疗决策系统在经过对10万张图像的学习训练后,对黑色素瘤的诊断准确率可高达95%,远超人类皮肤科医生86.6%的诊断准确率。其次,在人类未知疾病的诊断中,AI医疗决策能够通过对医疗数据的分析和匹配发现人类尚未获知的潜在致病因素,并据此作出诊断。比如,国际商业机器公司(IBM)推出的名为“沃森药物发现(Watson for Drug Discovery Rank)”的机器学习工具在对人类基因组中近1500个基因进行分析和排序时,提出了哪些人类基因可能有助于肌萎缩侧索硬化(ALS)的疾病预测。其重要成就不仅在于发现排名前10位的基因中有8个与该种疾病有关,更在于该机器学习工具同时还发现了5个以前从未被发现的与肌萎缩侧索硬化相关的基因。最后,AI医疗决策不仅能够对患者是否患有某种疾病作出准确判断,还可以通过大数据分析处理和机器学习对就诊人员患上某种疾病的潜在风险进行预测,从而帮助更多患者从预防性治疗中获益并减少不必要的治疗成本。

上述统计学意义上的AI医疗决策优势表明,随着AI医疗决策的技术效能逐步超越医疗卫生人员既往的医疗决策水平,医疗卫生人员会对AI医疗决策产生越来越强的依赖。从相关行业的市场选择来看,一项新技术如果能够在准确性、效率性和引入成本上同时具有优越性,那么就极有可能改变现有行业从业人员的需求结构。因此,如同AI在其他领域的应用一样,AI自动化程度的提高意味着行业原有的从业人员将面临失业危机。如前所述,AI医疗决策相比于人类医生具有显著的医疗决策准确率优势,同时还能借助自动化技术提高医疗决策的效率。更重要的是,随着医疗服务行业对AI医疗决策系统需求量的提升,AI医疗决策自动化系统服务提供商会通过提升技术水平、降低服务提供成本的方式继续打开医疗服务领域的市场。此时,相比于人类医生较为高昂的人力成本,医疗服务机构自然会倾向于选择成本更为低廉的AI医疗决策系统,最终可能导致人类医生的需求总量大幅减少。医生个体对AI医疗决策的过度依赖意味着存在于医生个体身上的医疗技能和专业知识将不再有发挥作用的空间,甚至会随着时间的流逝而逐渐被遗忘。医生需求总量的减少也会不可避免地产生医学专业知识的损耗。尽管人类的医学知识并不会完全丢失,但它只存在于少数尚未被医疗服务行业淘汰的专家和研究人员的大脑及医疗数据库之中。更重要的是,人类医学知识不会再像以往一样在医疗实践中不断产生知识增量,因为人类医生将很少向AI医疗决策系统数据库贡献与新医疗实践相匹配的医学判断。因此,医疗卫生从业人员的减少和人类医学知识难以为继,会加剧医疗决策对AI技术的依赖。

500

易言之,如果说在AI医疗决策应用的初期,AI医疗决策系统得出的结果仅会被用来支持医疗卫生人员作出决策,那么随着AI医疗决策的技术优势逐步被释放,其将不再是医疗卫生人员作出医疗决策的“支持者”,而会成为“替代者”。随之而来的影响是,在AI医疗决策技术优势的驱动下,AI医疗决策逐渐呈现出替代性的功能趋势,医疗决策的控制权也将间接落入AI的掌控范围。

AI医疗决策替代功能的法律困境

从本质上看,AI医疗决策发挥替代功能就是将人类排除在医疗决策主体范围之外,并产生医疗决策来源单一化的客观效果。如果说技术优势是促使AI医疗决策逐渐在医疗决策中扮演“替代者”角色的动因,那么在考察其决策替代功能是否具备妥适性时,则需要关注AI医疗决策在替代者功能定位下会面临哪些难以克服的法律困境。

(一)准入监管机制失灵 

AI医疗决策的功能定位决定了影响医疗决策的相关主体及技术的准入监管模式。如果AI医疗决策发挥的是替代功能,那么准入监管的重心自然而然就落到AI医疗决策技术的监管上。不过,在面对AI医疗决策固有的技术局限时,对AI医疗决策技术的准入监管机制将不再能够发挥预期的作用,且此种法律障碍无从克服。

一方面,医疗决策主体及技术的准入监管机制无法保障患者免受数据瑕疵所引发的医疗安全风险。无法避免的数据瑕疵会导致AI医疗决策的安全性难以保证,AI医疗决策发挥替代功能可能会使患者陷于难以预见的医疗安全隐患之中。安全性是所有医疗决策模式的首要目标,而AI医疗决策的安全性主要取决于它所使用的医疗数据的品质。在AI医疗决策系统模型的训练初期,会有来自医学研究人员、医疗从业人员和其他技术人员提供的大量医疗数据,以训练算法来解释、处理不同医疗决策场景中输入的决策支撑数据。但问题在于,用来训练算法的原始数据的准确性通常难以保证,更无法避免因数据集过窄而导致的数据偏见。正如有学者断言,机器学习不会在每种情况下都产生完美的诊断结果,机器学习肯定会出错。在传统的医疗决策模式中,医疗卫生人员偶有一次的误诊也仅针对当次受诊患者,危害范围相对有限且危害程度可控。但当此类瑕疵数据作为原始数据被用来训练算法模型时,其所产生的医疗安全隐患将波及AI医疗决策下的所有患者。如果医疗卫生人员完全依赖AI实施医疗决策,则相当于放弃了人为干预AI医疗决策的机会,使医疗安全隐患无限接近患者,由此可能造成的损害结果也将呈几何级数增长。

另一方面,医疗决策主体或技术的准入监管机制无法避免AI医疗决策系统在面对新决策场景时可能产生的决策风险。来源有限的训练数据会使得AI医疗决策系统无法应对新的医疗实践场景,决策替代功能定位下的AI医疗决策系统也会给其持续性改进带来巨大阻碍。医疗决策的场景总是千变万化,当在具体决策场景下输入的决策支撑数据与训练数据不同类时,AI医疗决策结果就将不再具有高适配性。AI医疗决策系统即便经过了综合数据集的开发,在实际应用中也会面临数据集的局限性问题。因此,要想维持AI医疗决策较高的决策准确率,就必须不断用新的具有代表性的高质量数据对AI医疗决策系统进行持续更新。可是,AI一旦代替了人类医生在医疗决策中的角色,可以用来对AI医疗决策系统进行持续性训练的数据就越来越依赖AI医疗决策在实践中自主产生的数据。易言之,在AI医疗决策发挥决策替代功能的情况下,由于缺乏人类医生的数据训练,AI医疗决策对于任何一组给定的患者症状,都可能会得出完全一致的治疗方案。来自人类医生的决策数据的减少,使得AI医疗决策系统训练数据库无法真正实现不断更新,添加到数据库中的结果完全或绝大多数是AI医疗决策的结果,这会导致AI医疗决策持续得出次优决策甚至是错误决策的概率不断增加。

(二)患者自主权利受损

尊重患者自主原则被认为是现代医学伦理的基本原则之一。在第二次世界大战期间,德国一项涉及人类受试者的研究引发了医学领域的一场道德哲学运动,尊重患者自主原则随之诞生,它是指尊重患者作为其自主代理人,并将自主价值置于医疗卫生专业人员与患者关系的中心。从尊重患者自主原则可以推导出患者的若干权利,例如拒绝治疗的权利、获得充分信息以作出知情选择的权利等。因此,尊重患者自主原则包括自愿、知情同意和决策能力,而知情同意属于尊重患者自主原则的核心要素。知情权意味着患者有权获得治疗过程中可靠和可理解的信息,如可能的风险和替代方案,医疗卫生专业人员也有责任对此进行解释。知情同意权与知情权密切相关,它植根于这样一种理念,即医疗卫生专业人员必须为患者提供足够的信息,使其能够对自己的身体作出自主决定,并对提供的医疗服务作出有效的知情同意。因此,知情同意权由两个部分组成,一是在患者能够作出有意识的决定时被告知诊疗信息的权利,二是患者基于该信息有接受或拒绝相应诊疗服务的权利。

然而,决策替代功能下的“算法黑箱”会给AI医疗决策带来解释困境,从而损害患者的自主权利。AI医疗决策不可能在信息真空中运行,AI只是现代技术中的一种,它们相互作用,并与周围的动态世界融为一体。所有这些技术的结合以及构成“AI生态系统”的AI系统相关技术在数据丰富的环境中产生交互,由传感器、区块链和其他技术支持的“物联网”推动数据不断地被创建、交换、分析、汇集和重新评估,其中的每一项技术都可能因自身缺陷而产生安全风险。尽管这些技术的组合使得AI医疗决策系统的运行效率和便利性极大提高,但同时也让医疗过程中的安全隐患难以被捕捉。在许多情况下,人类很难解释机器是如何或为什么做对或做错的。这是典型的“黑箱”问题,它反映了算法可解释性的缺失,可能会使人工智能的决策过程变得难以理解。此外,人类还没有切实可行的方法来检查任何给定决策的推理过程,许多AI医疗决策不容易被人类所理解,如果这种情况持续下去,患者自主权利的实现将受到更多阻碍。

(三)医疗损害归责困难

当AI医疗决策因自身缺陷导致医疗事故时,患者的生命健康权益将无从救济。从法理上看,AI医疗决策相关主体承担侵权责任的可责难性面临严重挑战。正如学者所言,随着机器自主权的扩大,将其行为的法律后果归咎于人类的传统法律责任框架正变得越来越脆弱。这是因为随着AI医疗决策自主性的增强,包括临床医生、医疗服务机构和AI医疗决策开发者等对其可能拥有的实际控制权将越来越少,基于代理、控制和可预见性的可责难性标准也会面临无法涵摄上述情形的艰难处境,从而直接影响到医务人员医疗损害赔偿责任、医疗服务机构的医疗损害赔偿替代责任、AI医疗决策开发者的产品质量责任等赔偿制度的适用。如果医疗事故是因AI医疗决策系统本身存在缺陷所引起,也很难找到应承担责任的一方。尽管AI医疗决策系统不同组件的软件设计人员、软件开发人员、硬件工程师和生产公司都参与了AI医疗决策系统的创建,但将其产品缺陷归咎于一个组件的任何一个参与者都将导致不公平的归责结果。因为任何一个参与者的工作在时间和地理位置上都与AI医疗决策系统的完成和运行相距甚远。

从实践的角度来看,现行法规定的医务人员勤勉尽责标准也将面临适用困境。根据我国《民法典》第1221条的规定,医务人员是否勤勉尽责要以当时的医疗水平作为判断标准。AI医疗决策充当决策“替代者”角色最直接的影响就是会削弱医生的决策自主权,如果此时医生选择与此种趋势抗衡,那么即便决策自主权受制,医生的医疗决策能力也仍然不会受到AI医疗决策的显著影响。但现实是在AI医疗决策充当决策“替代者”时,医生群体可能会产生严重的道德危机,即医生会将其对医疗决策结果的责任转移到AI身上。医生一旦从医疗决策的控制者转变为AI医疗决策结果的执行者,他们就不再认为自己负担着患者利益最大化的道德责任,更无需承担由于决策错误而导致的医疗事故责任。换言之,充当AI医疗决策执行者将是医生理性选择的必然结果。随着AI医疗决策技术的发展,一旦AI医疗决策的准确性在统计学上优于医务人员,那么执行AI医疗决策将成为医务人员勤勉尽责的唯一判断标准。换言之,在出现医疗决策错误的情况下,医务人员若没有充分理由证明不采用AI医疗决策对患者更有利,则可能被法院判定为存在医疗过错。这一客观情况会使医务人员直接采用AI医疗决策结果,从而规避可能存在的执业风险。如此,医务人员勤勉尽责的标准将走向异化,从而违背了医务人员应维护患者利益最大化的基本医学伦理要求。

综上所述,AI医疗决策在医疗决策中发挥替代功能将对医疗服务行业产生一系列颠覆性的影响。从表面上看,AI医疗决策的替代功能会在短期内提高医疗决策的准确性、降低医疗决策的成本和提升医疗服务的效率。但是,牢牢把握医疗决策控制权的AI会给当前医疗决策法律框架下的主要制度带来难以克服的法律困境。一个应当坚持的立场是,AI医疗决策仅是改善医疗服务质量的工具而非目的,人类医生的医疗决策技能更不该被简化为算法的输入或输出。此外,医疗实践必然要求医生承担符合其医学理解的执业风险,而不是仅仅依据准确率统计上的劣势使医生成为AI医疗决策系统的附庸。

现代医疗决策模式演进的规律及启示

从历时性的角度来看,现代意义上的医疗决策模式是在漫长的历史发展进程中逐步形成并不断演化的,尤其是在过去四十多年中发生了显著的变化,即从医生掌握医疗决策主导权的家长式医疗决策模式转变为以患者为中心的协作互动模式。因此,作为医疗决策模式演进中的关键一环,AI医疗决策应往何处去这一命题的答案,应当回归现代医疗决策模式的演进史中来找寻。简要回溯现代医疗决策模式的演进过程并探寻其中的规律,将对当前AI医疗决策的应然功能定位带来重要的启示。

(一)患者自主原则逐渐受到重视的基本脉络

患者自主原则逐渐受到重视这一基本脉络,集中体现在当患者欠缺或丧失决策能力时的决策作出方式演变过程中。在漫长的社会实践中,医疗决策领域逐渐形成了指派第三方代替那些无法依靠自己做出决定的人进行决策的模式,即第三方替代决策。相应地,这些被指派的第三方负有为决策能力欠缺或丧失的主体作出替代决策的法定义务,被替代决策者也必须接受替代决策者的决策结果。不过,第三方的替代决策行为并非毫无约束,而是要在区分不同情况的前提下最大限度地尊重被替代决策者的意愿。首先,替代决策的第三方如果能够获知被替代决策者在有决策能力时表达的决策意愿,则应当根据被决策者先前的愿望作出决策。其次,当作出替代决策的第三方无法获知患者先前的决策意愿时,他应当作出最符合被替代决策者价值观和信仰的决策。最后,如若替代决策的第三方既无法获知被替代决策者先前的决策意愿,也无法获知其价值观和信仰,则需要权衡不同医疗方案的利弊,作出最符合其利益的决策。正是因为在第三方替代决策模式下,决策者要为被替代决策者争取决策利益的最大化,故一般要求替代决策的第三方与被替代决策者之间存在信任关系。替代决策的第三方首先是被替代决策者指定的人,其次是根据法律确定的通常可信赖或对被替代决策者了解的人,如配偶、成年子女、父母或兄弟姐妹等。

尽管第三方替代决策模式历史悠久,但其据以立论的两大前提假设却日益受到医学界的强烈抨击。有反对观点认为,第三方替代决策建立在对包括疾病、智力残疾、精神健康状况不佳和衰老等患者客观情况歧视的基础上,普遍存在于医疗决策领域的此种定式观念会导致医疗卫生人员认为缺乏决策能力的患者必然需要一个替代决策者。更加严重的是,此种定式观念还可能导致医疗卫生人员与作为替代决策者的第三方认为决策能力欠缺者的感受和愿望没有足够的意义,甚至在决策时不予考虑。第三方替代决策的另一前提假设是缺乏决策能力的患者会因其授信第三方作出的决策而受益,倘若允许其自己作出决策,结果只会更糟。尽管第三方替代决策的出发点是医疗决策中的弱者保护理念,但它却未曾考虑被替代决策者因无法自己作出决策而丧失自主性和自决权所带来的不利后果。一些临床研究结果表明,替代决策模式会对患者的个人健康尤其是心理健康产生负面影响,如部分患者因无法行使自决权而时常感到“无助、无望和自我批评”,还有患者会表现出“低自尊、被动和未受到充分尊重”等类似抑郁症的临床症状。

针对上述质疑,许多学者主张应当从第三方替代决策转向第三方支持决策,以充分尊重患者在医疗决策中的自主性和自决权。其理论依据在于,自主决策描述了人们增加或导致生活中发生事情的可能性的行为,尽管自主决策可能会导致一个人作出有风险或无法获得其他人支持的决定,甚至是不明智或错误的决定,但这就是“风险的尊严”。换言之,支持患者自由作出决策安排,能够保障患者在个人自主决策中享有尊严。

(二)医疗决策话语权从医者向患者的主体变迁

1980年代末,随着协作互动决策模式的兴起,医生和患者在医疗决策中的话语权比重也发生了巨大改变。患者因享有医疗决策过程中的主要利益而成为医生在医疗决策中的合作伙伴,并享有平等的决策权。这种观念的转变导致人们越来越关注患者的权利,尊重医疗决策过程中患者的自主权。换言之,在协作互动决策模式下,促进和扩大患者自身的决策能力成为医疗决策参与者的核心目标。它着力保障患者在医疗决策中发挥能动性并始终处于决策过程的中心,其实现手段便是尽可能地为患者提供医疗决策所需的信息、知识及智慧支持。

患者对医疗决策话语权的掌握体现在第三方支持决策模式下的决策支持主体选择和决策支持方式这两个方面。在决策支持主体的选择上,患者可以提前自主选择一名或多名决策支持者,主体范围通常包括理解患者个人生活史、交流方式和其价值信仰的家庭成员或朋友,他们共同构成患者医疗决策的支持网络,帮助患者更好地行使决策自主权。在决策支持方式上,被选出的医疗决策支持者可以与患者定期见面,以协助患者作出一系列决定;或者通过非正式对话帮助患者认识到其可选的医疗决策及潜在后果。正如学者所解释的那样,第三方支持决策与大多数人面临选择问题时作出决定的方式相类似,都是从了解这些问题的家人、朋友或专业人士那里寻求信息和建议,以帮助他们作出更加明智的选择。

(三)医疗决策信任由角色到信息的机制转换

信任表征着社会关系主体间的价值共识,因此医疗决策中的一个重要基础就是医患信任,尤其是患者对医生的信任。在家长式医疗决策模式下,医患信任的构筑基础在于医生的特殊职业角色。患者与医生之间的信息、知识和技能等决策能力的差距是医患关系中最显著的特征,因此患者在医患关系中处于天然的弱势地位。与此形成鲜明对比的是,医生因其接受的医学专业教育和职业资格认证等特殊角色要素而具备患者欠缺的医疗决策能力。因此,患者对医生的信任并非基于对特定医生的人际信任,而是基于对医生群体的角色信任。换言之,某一自然人一旦具备医生这一职业角色,便标志着其具备了医生的专业知识、医疗技能和职业道德。可见,在家长式医疗决策模式下,一个特定的患者会默认医生将以其健康利益作为最高决策准则。

随着医疗决策模式逐渐从由医生主导的家长式决策模式过渡到以患者为中心的协作互动模式,患者对医生的信任基础也从医生的特殊职业角色逐步转向特定支撑医疗决策的信息。在协作互动模式下,良好的医疗决策不再是医生主导的独断式决策,而是基于患者与医生互信的关系型决策。一方面,随着患者在医疗决策中变得愈加积极主动,支持决策的第三方也会为患者提供更多决策所需的可靠信息,患者对医疗决策的支撑信息也有更好的掌握,从而巩固医疗决策中患者对医生的信任基础。另一方面,医生在医疗决策过程中不再是简单地将其自身的决策理念强加给患者,而是通过与患者的沟通和互动来获知患者的决策偏好,从而作出更加契合患者价值观和信仰的医疗决策,以此加强患者对医生的信任。

AI医疗决策的支持功能定位与规范回应

AI医疗决策的技术优势不仅使医疗卫生人员越来越依赖AI医疗决策,从而改变了人与技术之间的关系,还改变了诸如医患关系等人与人之间的关系。这种改变最直观的体现是在传统的医疗决策模式中加入了AI元素,医生和患者对医疗决策的控制权同时被弱化;而这种弱化一旦进一步演变为AI主导,将会对患者权利和整个医疗卫生事业产生难以预测的不利后果。因此,最为妥当的立场是明确和坚持AI医疗决策应当发挥决策支持性功能,并通过积极的立法规范予以回应和提供制度保障。

(一)AI医疗决策功能的应然定位:支持功能

首先,患者的自主权利将在AI医疗决策的支持性功能定位下获得更多的尊重。尊重患者的自主权利本质上是将医疗决策的决定权交给患者自己,并且确信患者自主决策的结果是最符合其自身利益的决策结果。此种最佳利益不是基于功利主义的计算结果,而是融入了对患者内在价值和信仰的考量。当AI医疗决策发挥决策替代功能之时,“算法黑箱”所带来的不可解释性会导致患者无从行使当前法律框架下的知情同意权,从而只能被迫在不了解AI医疗决策过程和信息的情况下接受由机器作出的医疗决策。因此,在AI医疗决策的决策替代功能定位下,患者完全被置于客体化的风险之中,对决策结果更是无从掌控。但是,决策支持功能定位下的AI医疗决策则能够在保留AI医疗决策技术优势的基础上,最大限度地尊重患者的自主权利。其原因在于,发挥决策支持功能的AI医疗决策技术非但不会打破医生与患者之间互动协作式的医疗决策模式,还能帮助医生为患者提供更准确和多元的医疗决策参考信息,充分尊重患者在医疗决策中的独立性与自主性。

其次,患者的决策话语权将在AI医疗决策支持功能定位下得到巩固。提升患者医疗决策话语权的本质在于,通过弥补患者天然的信息弱势来加强患者的医疗决策能力。当AI医疗决策发挥决策替代功能时,患者的决策话语权将被无限压缩。因为患者对AI医疗决策系统的决策过程无从了解,无法获得相关决策信息,更不能从医生那里获得医疗决策知识的支持,故而只能被动接受AI医疗决策的结果。因此,在AI医疗决策替代功能定位下,患者与医生在医疗决策中的信息差将进一步扩大。不过,在决策支持功能定位下,医生将成为AI医疗决策与患者之间的信息中介,为患者提供更多可供参考的决策信息,从而使患者拥有更多的决策参与机会。例如,在一份关于人工智能的研究报告中,研究者就指出,尽管AI可以提高癌症或其他一些疾病的早期检测效率,但是仍然需要人类医生来与患者一起工作,以便AI医疗决策更准确把握患者症状,并将结果告知和解释给患者,并据此与患者一起制定和执行治疗计划。

最后,AI医疗决策支持功能定位下医患信任机制的基础仍然是医疗决策信息。在决策替代功能定位下,医生特殊职业角色和医疗决策信息供给乃至医患信任机制均会被AI医疗决策所侵蚀,医患关系将面临巨大考验。但在决策支持功能定位下,医疗决策信息的供给以及医患信任机制都会得到巩固。具体而言,在传统的医患互动协作决策模式中,尽管患者对医疗决策掌握重要话语权,但其决策的信息来源仅限于特定医生。当医生可以在AI医疗决策的支持下与患者进行互动沟通时,患者可以获得的决策信息来源已不仅限于特定医生,而是包括AI医疗决策机器学习模型训练数据的所有数据来源。AI医疗决策系统通过在各种设置中提供更加集成的体验,将对话、可视化和协作相结合,并将以前患者不可见的数据和知识转化为可操作的见解,从而增强医生与患者之间的互动和互信,最终实现对患者参与医疗决策的赋能。

(二)AI医疗决策支持性功能的制度保障

明确AI在医疗决策中的应然功能定位后,相关立法应当对AI医疗决策的支持性功能定位进行积极和明确的制度保障。

第一,在医事基本法中直接明确AI医疗决策的支持性功能定位。截至目前,我国尚未形成围绕AI实际应用的系统性立法,各细分领域的AI应用立法也相对欠缺。鉴于AI在各行业领域的发展进程和原则要求不同,故AI立法应当以原有法律体系为基础,以部分类型和领域的立法为先导。因此,关于AI医疗决策支持功能定位的规定应当纳入医事基本法的范畴。在规范表达上,可以借鉴美国医学协会(AMA)2018年的一则政策建议文件中的表达方式,以“增强智能”来概括AI决策在医疗服务等领域的应用。该文件中的“增强智能”一词最早由控制论和系统理论的创始人之一Ashby教授提出,它是对AI与人类医生之间未来相互关系的恰当描述。其背后的用意在于表明AI对人类医疗决策能力的作用仅是增强而非替代,掌握医疗决策控制权的仍是医生和患者。

第二,在准入监管层面形成“医生+AI”的整体监管模式。当前的医疗决策监管框架采用的是对决策主体和决策工具分别进行监管的模式。该监管模式建立的背景在于仅将AI医疗决策作为医疗器械这一决策工具进行监管,如我国2018年8月开始生效的新版《医疗器械分类目录》就将医疗AI产品区分为二类和三类医疗器械分别设置审批通道,同时在对医生的从业监管中包含了对医疗器械恰当使用的要求。但是,当AI医疗决策不再仅仅作为医疗决策中的工具,而是能依靠一定程度的系统自主性发挥决策支持功能时,既有的分别监管模式已经无法保证医生对AI医疗决策系统的使用具有安全性。因此,在支持性功能定位下,我国应当在准入监管上建立“医生+AI”的整体监管模式。换言之,在原有的分别监管模式的基础上,增加医生使用AI医疗决策的资格监管。在具体的规范设置上,可以增加医生职业资格取得和继续教育中关于AI医疗决策使用的技能要求,还应包括监管部门对医生使用AI医疗决策资格的持续性监管。如此,方能防止医生的职业角色被进一步弱化为AI医疗决策的“按钮推手”,同时也可促进医患之间的理解与信任。其中,医生使用AI医疗决策资格监管的重心,应当落实在医生能否判断AI提供的决策结果的适当性上,以确保医生能够对AI医疗决策作出妥适的安全性判断。

第三,在决策过程中重构尊重患者自主原则的权利体系。一是增加患者对医生使用AI医疗决策的知情同意权。要想使患者的自主原则在AI医疗决策支持功能定位下受到充分的尊重,就应当确保患者对AI医疗决策的具体功能范围和相关诊疗体验有充分了解。相反地,如果未经患者知情同意,AI不能应用于医疗决策之中。在实现方式上,患者的知情同意权比知情权要求更加严格,后者只要求医生向患者提供与AI医疗决策相关的信息,而前者则是让患者主动参与到技术与人类的互动过程中,通过互动过程中获取的信息来作出是否同意采用AI医疗决策的决定。二是增加患者要求医生提供除AI医疗决策结果以外替代方案的权利。这是因为如果缺乏可行的替代方案可能会影响患者对医生的信任与理解。如果患者在接受医疗服务的过程中感受到一项技术的应用比其自身生命健康权益更为重要,那么他对医生和整个医疗系统的信任度可能会大大降低。导致这一问题的根本原因在于患者对医疗决策方案没有选择余地,那么他对医疗决策的选择就是盲目且缺乏信任的。

第四,在侵权救济中明确AI医疗决策相关主体的归责标准。在AI医疗决策系统设计、开发和应用等各个环节,相关主体都应当对AI医疗决策的安全性负担注意义务。AI医疗决策系统的设计者和开发者应当尽到相关从业者的一般注意义务,而作为AI医疗决策实施者的医疗卫生人员的归责标准则相对复杂。为了防止医生的注意义务异化为“必须采用AI医疗决策”,应当在尊重患者对医疗决策方案自主选择权的基础之上,分情况设置不同的医疗卫生人员的注意义务标准。当患者同意将AI医疗决策结果作为医疗决策的支撑信息时,医疗卫生人员注意义务标准应当是在同类型情形下“医生+AI”的医疗决策效果;而在患者不同意采纳AI医疗决策结果之时,应当按照传统医疗行为标准认定医疗卫生人员是否尽到注意义务。此外,不应将AI医疗决策结果作为评价医疗服务提供者是否尽到注意义务的依据,更不能要求医疗服务提供者必须采纳AI医疗决策系统提供的决策结果。

站务

全部专栏