摘要
人工智能在医疗领域的应用虽具潜力,但可能因医疗机构或医生的过失行为对患者造成伤害。本文探讨了医疗AI创新背景下如何适用注意义务、违反义务、因果关系等过失侵权原则,并重点分析了监管指南如何影响医疗AI实施者(医院与医生)的法律责任。通过梳理相关判例和监管指南,研究提出监管框架需与普通法原则协调发展,特别强调医疗AI临床应用中的依赖标准、风险披露及非透明性带来的法律挑战。
引言
人工智能技术在医疗领域呈现革命性影响,其应用范围涵盖疾病诊断、心理健康检测、个性化医疗及药物研发。尽管AI在速度和准确性上优于人类医生,但其仍可能产生基础性错误,这源于人类专家与AI系统分析临床问题的差异。医疗AI的非透明性和不可解释性进一步加剧了医院和医生评估医疗情境的风险难度。对于因AI过失导致的伤害,患者可通过过失侵权法寻求赔偿。根据"无预见性损害"原则,实施者需证明不存在违反注意义务、损害因果关系及损害可预见性。
医疗AI监管框架:监管指南对过失原则的潜在影响
新加坡《医疗AI指南》(AIHGle)提出"责任原则",明确指出医疗AI的使用不改变医疗机构和医生对患者的安全保障义务。该指南建议医疗机构在决定采用医疗AI时需考虑:预期用途、算法有效性、训练数据代表性、监管审批及风险缓解措施。在美国,FDA发布的《基于AI/ML的医疗设备行动计划》强调持续监测软件性能,通过"预定变更控制计划"和"良好机器学习实践"确保患者安全。
研究指出,国际监管指南(如WHO发布的AI医疗设备最低标准)虽无法律约束力,但其行业标准可能影响普通法中的注意义务认定。例如,英国判例法确认国际指南可作为评估医疗过失的标准,但最终仍需法院裁定。值得注意的是,医疗AI持续学习的特性要求实施者采取"锁定算法"、部署后验证等额外保障措施。
过失侵权与AI错误致损:实施者的法律责任
医疗AI可能造成误诊(假阴性)、过度治疗(假阳性)或不当干预。在过失认定中需解决两大核心问题:1)过失原则如何适用于医疗AI新技术;2)监管指南如何影响医疗实践中的注意义务标准。根据英国《Bolam测试》,若医生临床决策获得医学界合理支持则不构成过失,但需通过《Bolitho测试》检验其逻辑合理性。新加坡2022年《民事法》第37条进一步要求医生披露"合理患者会重视的"医疗AI相关风险。
关于AI透明性,研究指出"黑箱医学"可能损害医患信任。尽管《医疗AI指南》要求AI决策"应努力实现可解释性和可重复性",但不同受众(医生与患者)对"可解释性"的标准存在差异。例如,深度学习系统中数以万计的数据权重及复杂关联,即使医学专家也难以追溯特定诊断的形成路径。
损害证明与因果关系认定
医疗AI侵权责任的因果关系认定尤为复杂。当AI开发商、实施者和使用者共同导致损害时,需根据问题根源(源代码缺陷、训练数据质量等)划分责任。例如,若医生未对AI诊断进行合理验证导致误治,可能承担主要责任;反之若AI模型本身存在设计缺陷,则开发商需担责。英国判例法中的"事实自证"(res ipsa loquitur)原则在AI场景下应用受限,因其要求被告完全控制事故情境,而这在非透明AI系统中难以成立。
关于患者知情同意权,研究指出医疗机构需披露实验性AI的固有风险。根据新加坡案例,医生应告知患者AI诊断的潜在局限性及替代方案。但普通患者无需知晓AI模型的技术细节,医生只需基于专业认知传递关键信息。
结论
医疗机构和医生对患者负有不可推卸的注意义务。当前环境下,实施者难以通过主张患者"明知风险"抗辩过失索赔。监管指南作为"动态文件"将持续更新,可能通过行业实践影响过失标准的演进。建议AI开发者与医疗实施者加强协作,特别是在AI设计阶段纳入临床专家意见,建立共同责任机制以降低医疗风险。
致谢
作者感谢谭博文对初稿的审阅,以及Natalia Mai Do Ngoc和庞成基的研究协助。
利益冲突声明
作者声明无潜在利益冲突。
资金支持
本研究获李光前教授席位(2022-2023)资助。
ORCID
[0000-0002-5186-0479]
【全文结束】