医疗高管谈AI错误及应对之道
每个人都会犯错;每个人都有状态不佳的日子。
插图:Brittany Holloway-Brown
作者:Maia Anderson
2025年8月20日 • 阅读时长3分钟
没有人是完美的,AI也不例外。
医疗专业人士正越来越多地将人工智能(AI)纳入工作流程,这项技术虽能提升效率,但也带来更大的错误风险。
美国食品药品监督管理局(FDA)曾开发了一款名为Elsa的AI工具用于加速药品和医疗器械审批,但CNN 2025年7月报道显示该工具在引文中生成虚假研究。更早的8月初,《The Verge》披露谷歌的医疗AI模型Med-Gemini在其2024年研究报告中提及了不存在的解剖结构。纽约西奈山医疗系统2025年8月2日发布的研究更表明,医疗AI聊天机器人"极易受到虚假医疗信息攻击"。
鉴于医疗AI应用的快速增长趋势,《Healthcare Brew》采访了行业高管,探讨错误发生时的应对策略和预防机制。
医院领域
科罗拉多大学生物伦理与人文中心内科医生兼卫生服务研究员马修·德坎普指出,目前关于AI医疗错误的法律责任划分仍存在"很大不确定性",因为尚未有明确的司法判例。但他建议可参考现有医疗设备责任分担模式。
"即便在AI出现之前,我们就有将CT扫描仪制造商、采购的医疗机构、使用扫描仪的放射科医生和我这类阅读最终报告的全科医生的责任划分机制。"德坎普举例说明,"这种责任共担模式值得借鉴。"
制药行业
礼来公司(Eli Lilly)资深副总裁兼首席AI官托马斯·富克斯强调,医疗AI应用的优先原则始终是"患者安全和信任维护"。他呼应了德坎普的协作理念,提出技术开发者需"设计具备严格验证、透明性和持续监控的系统"。
同时,技术使用机构应建立"检测、评估和应对"错误的快速响应流程,遵循美国国家标准与技术研究院(NIST)制定的AI风险管理框架。该框架由美国政府机构开发,旨在管理AI应用相关风险。
健康科技领域
Teladoc健康公司虚拟护理公司首席医疗官兼综合护理高级副总裁伊桑·伯克指出,医疗AI安全系统应参照传统医疗错误应对机制,建立"追踪、分类和调查"AI安全威胁的体系,利用数据分析预防未来错误。
作为运营着60多个专有AI模型的企业,Teladoc建立了"严格"的测试评估流程,确保模型在部署前完成"准确性、偏见性和安全性"验证。伯克强调:"确保AI解决方案的可靠性、伦理性和安全性是我们的共同责任。通过投资患者安全和质量保障,我们建立了能快速分析潜在安全事件、追溯根本原因并在错误影响患者前及时纠正的机制。"
【全文结束】


