高博格塞加拉律师事务所(Goldberg Segalla)合伙人弗兰克·拉莫斯为《PLI纪事报》(Practising Law Institute出版的期刊)撰写了题为《算法漏诊肿瘤:当诊断出错时如何为人工智能医疗设备制造商辩护》的文章。
作为人工智能领域公认的思想领袖及法律行业伦理采用AI的倡导者,弗兰克深入探究了围绕人工智能赋能医疗设备的新兴责任格局,重点分析诊断算法失效导致患者受损的案例。
他以假设场景开篇——经FDA批准的AI影像系统漏诊肿瘤最终导致患者死亡——说明此类索赔已不再是理论问题。“如果此类案件尚未抵达法庭,那么它即将来临,”他强调制造商和辩护律师必须为这波日益增长的诉讼做好准备。
拉莫斯指出,AI误诊案件几乎总会同时涉及医疗事故和产品责任索赔,导致被告方产生策略性矛盾。医生可能主张软件存在缺陷,而制造商则辩称医生不合理地依赖AI输出。“每个被告都指责对方,原告只需静观其变,陪审团的同情心却在不断增长,”他表示,但并行索赔也带来机遇,“若制造商和医生的辩护律师协调策略,便能呈现统一的叙事逻辑。”
据弗兰克所述,核心辩护工具是专家中介原则,该原则将制造商的警示义务转移至医生而非患者。由于AI诊断工具提供的是建议而非自主决策,医生仍须承担独立临床判断的责任。拉莫斯建议制造商必须通过警示和培训确保医生充分理解“工具的功能、局限性、准确率及已知失效模式”。
弗兰克同时剖析了FDA批准作为辩护手段的局限性。尽管通过510(k)或De Novo路径获得的批准具有价值,但他强调这“是盾牌而非堡垒”。许多AI工具在缺乏针对多样化患者群体的广泛现实世界测试情况下即投入市场,若系统超出其适用范围使用,制造商将面临风险。
最后,拉莫斯展望了不断演变的医疗护理标准,预测AI诊断将很快成为医学界的普遍要求。“医疗护理标准正在纳入AI,”他表示,“随着诊断AI工具日益普及且精确度提升,合理医生应采取的行动预期正在改变。未能使用AI诊断工具本身将成为违反护理标准的行为——这一天即将到来。届时责任格局将彻底翻转。”
弗兰克补充道,这一转变既创造机遇也大幅提升了AI医疗器械制造商的风险。“当某工具成为护理标准后若发生灾难性失效,制造商将面临远超医疗器械行业历史任何案例的索赔规模。”
【全文结束】

