一位医疗法律专家就当人工智能出错时会发生什么——以及谁应承担责任发表见解。
戴维·A·西蒙(David A. Simon),东北大学法学副教授兼艾米·J·里德医疗设备安全合作组织联合主任,在11月接受了美国新闻与世界报道的采访,讨论了制定负责任使用人工智能的医疗标准以及如何处理AI医疗事故问题。本次采访经过编辑以精简长度和提高清晰度。
人工智能热潮已不可避免。近年来,医疗行业的格局发生了怎样的变化?
您可以从不同角度思考。一个方面是医疗服务的提供,我们看到AI技术被引入临床领域,例如实时记录和处理语音、生成转录和笔记的软件。
AI还以设备形式进入临床空间……美国食品药品监督管理局(FDA)已审查并授权了1000多款AI赋能的医疗设备。其中许多涉及影像技术和放射学,但不仅限于此。还有一些诊断型AI技术。
另一个方面是与医学相关但不属于直接医疗服务的领域。保险公司正在使用AI来评估理赔信息,既用于批准或拒绝理赔,也用于评估他们所掌握的理赔数据中的更大趋势。
应使用哪些标准来定义‘AI医疗事故’?它应遵循传统医疗事故标准,还是需要一个全新的法律框架?
现有框架是有效的。问题只在于如何应用。会有一些盲点,在现有法律下可能难以认定AI设备制造商应承担责任,可能需要一个例外条款规定他们应承担责任。
但这些都是边缘问题。总体而言,应用我们现有的医疗事故标准只是时间问题,随着案件的出现,这种情况自然会发生。
我确实怀疑,医生越将任务外包给AI,AI出错后的诉讼成本就越高,因为证明将变得更加困难,特别是如果它是黑盒AI。你甚至不知道它在做什么,也不知道如何解释它的行为。
在AI框架导致患者伤害的情况下,谁应承担责任:临床医生、医院还是AI开发商?
这是一个非常依赖事实的问题。因此,他们都有可能承担责任。可能是AI开发商制造了有缺陷的产品,而医院的临床医生在使用前没有验证它,医院在实施前也没有验证或检查它是否正常工作,临床医生还可能误用了它。
在大多数情况下,如果临床医生在医院工作,医院将对临床医生的行为负责。
关键是一个事实问题:伤害的性质是什么?它是如何造成的?是源于设备本身的缺陷,还是因为临床医生误用了设备或没有正确使用设备?
医院可以采取哪些实际步骤来降低与AI相关的医疗事故索赔风险?
每当医院采取采用AI技术或实施AI技术等行动时,他们必须注意几个方面。首先,他们与制造商的协议是什么?协议中的赔偿条款说了什么?换句话说,如果出现问题,谁将承担责任,以及在什么条件下?
如果AI制造商愿意赔偿或对索赔承担责任,那么医院必须了解这些索赔的类型。风险水平如何?该制造商有多少资金,他们是否有保险?如果有,该保险是否会涵盖此类案件?
医生、医院和开发者应使用哪些策略来建立公众对医疗AI的信任?
一是透明度,二是演示,三是同意。
透明度是指以患者能理解的方式披露AI的使用、使用方式及原因。第二是尽可能展示其工作原理。第三是确保患者对使用的技术感到舒适,如果不舒适,则给予他们选择退出的选项。
这并非在每种情况下都可行,但至少如果无法在每种情况下实现所有这三个方面,可以尝试在某些情况下实现其中大部分。
【全文结束】


