专家警告,在医疗过失责任认定方面,人工智能的应用可能引发复杂的法律追责困境。
临床用人工智能的开发正迅猛发展,研究人员已创造出众多工具,从辅助解读影像扫描的算法到辅助诊断的系统。AI还被开发用于医院管理,包括优化床位容量和解决供应链问题。尽管专家认为该技术能为医疗带来诸多益处,但他们同时表达了担忧:AI工具的有效性测试不足,且当患者出现不良后果时,责任归属问题存在疑问。
匹兹堡大学的德里克·安古斯教授表示:"某些情况下可能出现问题,人们会急于寻找追责对象。"
由《美国医学会杂志》去年主办的"人工智能峰会"汇集了包括临床医生、科技公司、监管机构、保险公司、伦理学家、律师和经济学家在内的多方专家。作为报告第一作者的安古斯参与撰写的这份报告,不仅探讨了AI工具的性质及其在医疗领域的应用范围,还分析了包括法律挑战在内的各类问题。
哈佛大学法学院报告合著者格伦·科恩教授指出,患者可能难以证明人工智能产品的使用或设计存在过失。获取产品内部运作信息存在障碍,同时提出合理替代设计方案或证明不良后果由AI系统导致也面临挑战。他表示:"各方之间的相互作用可能为提起诉讼带来困难——他们可能互相推诿责任,现有合同可能重新分配责任或引发赔偿诉讼。"
斯坦福大学法学院报告作者米歇尔·梅洛教授认为,法院具备解决法律问题的能力,但她强调:"问题在于这需要时间,且在早期阶段会出现不一致判决,这种不确定性将推高AI创新与应用生态系统中所有参与方的成本。"
报告还对AI工具的评估方式表示担忧,指出许多工具处于美国食品药品监督管理局(FDA)等监管机构的监督范围之外。安古斯表示:"对临床医生而言,有效性通常意味着改善健康结果,但监管机构未必要求提供此类证明。一旦投入应用,AI工具可能在不同临床环境、面对不同患者、由不同技能水平的使用者以难以预测的方式部署。很难保证审批前方案中看似可行的方案在实践中同样有效。"
报告概述了当前评估AI工具的诸多障碍:工具通常需在临床使用中才能得到全面评估,而现有评估方法既昂贵又繁琐。安古斯强调,必须为医疗AI工具的性能评估提供资金支持,其中数字基础设施投资是关键领域。他表示:"峰会上讨论的一个现象是:评估最充分的工具反而采用率最低,而采用最广泛的工具却评估最不足。"
【全文结束】


