2025年医疗行业面临的最大技术风险:AI报告

AI is top technology ‘hazard’ facing healthcare in 2025: report

美国英语科技与健康
新闻源:Healthcare Dive
2024-12-09 23:16:00阅读时长3分钟1101字
2025年医疗行业技术风险AI患者安全医疗质量偏见性能下降监管网络安全

根据安全研究机构ECRI发布的报告,人工智能(AI)产品带来的风险是医疗行业2025年面临的主要技术风险。尽管AI有潜力改善医疗服务,但诸如偏见、不准确或误导性的响应以及性能随时间下降等问题可能会导致患者受到伤害。

ECRI的安全与质量研究机构建议,医疗组织在实施AI工具时需要谨慎思考,明确其目标,验证和监控其性能,并要求模型开发者提供透明度。

深度解析:

该报告列出了来年需要紧急关注的医疗技术风险,其中AI被列为首要风险。医疗行业的领导者认为,AI可以帮助解决一些最棘手的劳动力问题,如医生倦怠或人员短缺。AI工具可以应用于广泛的医疗场景,从优先处理关键影像结果到帮助临床医生记录笔记或安排患者预约。然而,如果医疗组织未能仔细评估和管理AI带来的风险,医疗质量和患者安全可能会受到影响。

例如,AI可能会在训练模型的基础数据中延续偏见,从而加剧现有的健康差异。当模型应用于与其训练数据不匹配的患者群体时,其性能可能会下降,导致不准确或不适当的响应。ECRI的首席项目官员Francisco Rodriguez-Campos在关于该报告的网络研讨会上表示:“我们在实施AI模型时必须小心,确保训练数据的人群特征与我们希望在机构中使用该模型的人群特征相匹配。”

AI系统还可能产生“幻觉”,即提供不准确或误导性的信息。此外,随着AI不断吸收新信息或临床情况的变化,模型性能可能会随时间下降。根据ECRI,风险取决于组织如何实施AI——监督不足、数据管理不善以及对模型过度信任都可能导致患者护理风险。医疗AI的监管环境也存在碎片化问题,联邦政府仍在制定全面的战略。一些用于临床文档或安排预约的AI系统可能会对患者护理产生重大影响,但这些系统可能不会被食品药品监督管理局(FDA)视为医疗器械进行监管。

随着公司采用AI,他们需要建立有效的治理结构,确保员工了解模型的能力和局限性。他们还应验证模型的性能,最好通过外部来源,并持续监控系统。购买AI产品时,组织还应要求技术公司提供透明度,例如系统训练的数据、AI工作原理的清晰解释以及在理想条件下表现的指标。

然而,AI并不是唯一威胁医疗组织的技术。供应商(如提供电子健康记录或调度和计费服务的第三方)的网络安全事件也可能对患者护理产生严重影响。ECRI将供应商的网络威胁列为第三大风险。今年年初,大型索赔处理器Change Healthcare发生的一起事件导致支付给提供商的资金延迟数周,并暴露了1亿美国人的数据。

为了减轻潜在的危害,组织应进行供应商风险评估,为关键系统创建冗余,并制定事故响应和恢复计划。ECRI的信息安全副总裁Kallie Smith在网络研讨会上表示:“这些演练不应仅限于网络安全团队,而应在特定的护理环境中与医疗提供者一起进行,以便确定停机可能对实际提供护理的人员意味着什么。”


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。

本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。