随着人工智能工具在医疗保健中的作用不断增长,针对医疗保健专业人员在告知患者如何及何时使用这些工具以及何时需要其同意方面,几乎没有伦理指导。由于缺乏标准方法,医院系统和临床医生有可能与其患者和公众之间产生不信任。在最近发布的一份报告中,Heritage College of Osteopathic Medicine的研究人员提出了一个框架,旨在帮助提供者在使用AI时导航患者通知和知情同意实践。
“这项工作的目标是提供一个实用指南,确定何时需要知情同意或通知,或何时我们真的不需要提醒任何人,”Heritage College的医学伦理学副教授Devora Shapiro博士说。“我们只是希望确保设施确实花时间解释对患者来说相关且必要的事情,以便患者可以做出最符合自己利益的决定——这是撰写本文的动机。”
知情同意是一个过程,其中医疗保健提供者向患者解释某项程序或干预的风险、益处和替代方案,特别是那些复杂或高风险的程序。这个过程赋予患者对其护理做出知情选择的能力,提供了自主感,并建立了患者与其护理提供者之间的信任和沟通渠道,Shapiro表示。
据Shapiro称,当AI用于高风险程序时,或在AI辅助建议对患者结果或治疗进展有重大影响的决策中,需要患者的同意。目前,没有任何AI工具完全取代护理提供者的角色;它们主要是支持资源,协助处理诸如分配病床等简单任务或更复杂的分析工作,如解读放射学测试。
Shapiro和主要作者Susannah Rose博士(Vanderbilt大学生物医学信息学副教授)提出了五个关键标准,以确定何时以及如何通知患者在医疗保健中使用AI。这些标准包括AI被赋予多大的独立决策权、AI模型与既定医疗实践的偏离程度、AI是否直接与患者互动、引入患者护理的潜在风险以及实施通知和同意过程的实际挑战。
Rose和Shapiro的框架发表在《CHEST》杂志上,主要面向医院管理者,用于制定全院范围的AI通知实践。
该框架还对AI技术进行了三个级别的分类,并分配了一个评分系统,以确定需要知情同意的程度。
“我们并不是说已经回答了所有问题,但我们认为这是一个非常坚实的起点,”Shapiro说。“我们也鼓励人们继续就这个问题进行讨论,继续解决更多的问题。那将是一件美好的事情。”
(全文结束)


