2025年报告:AI是医疗保健行业面临的最大技术风险

AI is top technology ‘hazard’ facing healthcare in 2025: report

美国英语科技与健康
新闻源:YAHOO!Finance
2024-12-09 19:00:00阅读时长3分钟1158字
2025年报告AI医疗保健行业技术风险患者安全模型开发监管环境网络安全供应商风险

据研究非营利组织ECRI周四发布的一份报告显示,人工智能支持的产品带来的风险是医疗保健行业面临的主要技术危害。尽管AI有潜力改善护理质量,但诸如偏见、不准确或误导性响应以及性能随时间退化等问题可能导致患者受到伤害。

ECRI的安全和质量研究机构建议,医疗保健组织在实施AI工具时需要谨慎考虑,明确目标,验证和监控其性能,并要求模型开发人员提供透明度。

该报告列出了来年需要紧急关注的医疗保健技术危害,将该行业最具吸引力的新兴技术之一——AI,列为首位。医疗保健领导者认为,AI可以帮助解决一些行业中最棘手的劳动力问题,如医生倦怠或人员短缺。这些工具可以广泛应用于医疗保健,从优先处理关键影像结果、帮助临床医生记录笔记到协助安排患者预约。

然而,如果医疗保健组织不仔细评估和管理AI带来的风险,护理质量和患者安全可能会受到影响。例如,AI可能会在训练模型的基础数据中延续偏见,从而加剧现有的健康差距。当用于与训练数据不匹配的患者群体时,模型性能可能会下降,导致不准确或不适当的响应。

“我们必须小心,当我们实施一个AI模型时,确保它训练的数据与我们希望在机构中使用的患者群体特征相匹配,”ECRI的项目主管Francisco Rodriguez-Campos在关于该报告的网络研讨会上表示。

AI系统提供不准确或误导信息(即“幻觉”)也可能对医疗保健组织构成风险。此外,随着AI不断吸收新信息或临床情况的变化,模型性能可能会随着时间的推移而下降。

风险还取决于组织如何实施AI——监督不足、数据管理实践不佳以及对模型过度信任都可能危及患者护理。AI在医疗保健领域的监管环境也存在碎片化,联邦政府仍在制定全面战略。某些用于临床文档或安排预约的AI系统可能对患者护理产生重大影响,但可能不会被食品和药物管理局视为医疗设备进行监管。

随着公司采用AI,他们需要建立有效的治理结构,并确保员工了解模型的能力和局限性。他们还应通过外部来源验证模型性能,并持续监控系统。购买AI产品时,组织还应要求技术公司提供透明度,例如系统训练的数据、AI工作原理的清晰解释以及在理想条件下的性能指标。

然而,AI并不是医疗保健组织面临的唯一技术威胁。其供应商(如提供电子健康记录或安排和计费服务的第三方)的网络安全事件也可能对患者护理产生严重影响。ECRI将供应商的网络威胁列为第三大危害。

今年年初,主要索赔处理商Change Healthcare发生的一起事件减缓了向提供商支付款项的速度,并暴露了1亿美国人的数据,医疗保健部门看到了关键供应商遭受网络攻击的潜在后果。

为了减轻潜在的危害,组织应进行供应商风险审查,为关键系统创建冗余,并制定事件响应和恢复计划。这些响应演练不应仅限于网络安全团队,ECRI的信息安全副总裁兼信息安全官Kallie Smith在网络研讨会上表示:“它们应在特定提供护理的环境中与您的医疗保健提供者一起进行,以便您可以确定停机可能对实际提供护理的人意味着什么。”


(全文结束)

声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。

本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。