人工智能仍是患者安全的首要隐患Why AI remains a top concern for patient safety

环球医讯 / AI与医疗健康来源:www.chiefhealthcareexecutive.com美国 - 英语2025-08-19 17:48:13 - 阅读时长2分钟 - 732字
本文系统剖析了美国患者安全研究所(ECRI)对医疗AI应用的深度担忧。ECRI将AI列为2025年患者安全首要威胁第二位,揭示了医疗AI缺乏有效治理、存在数据偏见、过度依赖决策支持系统等风险。文章通过明尼苏达大学研究数据指出,65%医院使用AI预测模型但缺乏有效监管,66%医生群体存在对AI误用风险的认知困境,并特别强调种族偏见可能导致诊断准确率下降等系统性风险。
医疗AI患者安全健康隐患治理结构训练数据诊断效能临床决策隐私风险医疗不平等透明化机制政府监管
人工智能仍是患者安全的首要隐患

医疗行业领导者普遍认可人工智能提升诊疗质量的潜力,但专业患者安全机构ECRI发布警示:医疗AI应用存在严重安全隐患。该机构最新年度报告显示,人工智能连续两年位列患者安全威胁前十,2025年排名第二,仅次于患者及家属关切被忽视的问题。

ECRI总裁兼CEO马库斯·沙巴克医生指出,医疗机构缺乏有效治理结构监管AI应用。"大型医疗机构尚未建立完善的治理体系,这可能导致AI工具被滥用或误用。"他强调,医疗AI开发需回答三个核心问题:"训练数据池构成如何?是否存在内在偏见?算法透明度能否保障?"

特别值得警惕的是,当前AI模型多基于年轻白人男性数据训练,这将导致对拉美裔老年群体等特定人群诊断效能显著下降。研究显示,全美65%医院采用AI预测模型评估患者健康轨迹,但仅61%机构验证模型准确性,44%进行偏见测试。资金充足的医疗机构更可能建立系统的模型评估机制。

沙巴克警告临床决策过度依赖AI的风险:"标榜为决策支持的工具正迅速演变为实际决策主体。"美国医学会最新调查显示,医生群体AI使用率从2023年38%跃升至66%,但存在隐私风险、电子病历系统兼容性差、错误结论导致医疗事故等重大隐患。明尼苏达大学研究证实,AI工具可能内嵌种族偏见,这不仅影响诊断准确性,还将加剧医疗不平等。

ECRI建议借鉴食品营养标签制度建立AI工具透明化机制,要求披露训练数据构成、统计方法等关键信息。该机构特别呼吁联邦政府加强对标定为"决策支持"的AI工具监管,目前这类产品几乎不受任何实质性监管。专家警告,医疗AI可能导致难以追溯的医疗事故,其致死致残风险可能成为新型系统性安全威胁。

【全文结束】

大健康
大健康