医疗保健中人工智能应用需持续监管Why AI Use in Healthcare Requires Continuous Oversight

环球医讯 / AI与医疗健康来源:www.govinfosecurity.com美国 - 英语2026-01-31 08:55:01 - 阅读时长2分钟 - 709字
克莱沃特公司咨询与战略副总裁戴夫·贝利强调,医疗保健领域人工智能应用的安全性和可靠性高度依赖于健全的治理与信任框架,特别是在临床环境中,AI错误或"幻觉"可能直接危及患者安全;他警告称临床决策中自主使用AI极其危险,医疗机构必须建立完善的数据验证流程和应急机制,同时强调AI系统上线后的全生命周期监管同样重要,需借助新兴技术监测模型漂移和幻觉现象,此外他还探讨了AI在提升医疗网络安全中的双重角色及医疗行业亟需关注的AI治理关键问题。
医疗保健人工智能监管治理信任框架安全性准确性临床决策数据测试模型监控风险网络安全
医疗保健中人工智能应用需持续监管

克莱沃特公司(Clearwater)咨询与战略副总裁戴夫·贝利表示,医疗保健中的人工智能应用安全性和准确性完全取决于其周围的治理和信任框架。这一点在临床环境中尤为重要,因为错误或"幻觉"可能直接影响患者护理。

"在临床决策中任何自主使用人工智能的行为都可能非常危险,实施人工智能的组织需要建立相应流程,确保他们已对数据进行了测试并信任这些数据,"他说。

如果护士在电子健康记录中发现人工智能生成的临床摘要存在错误,必须有相应的流程和计划在可能造成危险医疗事故之前解决该问题。

"你如何应对这些问题?组织必须了解他们将如何使用[人工智能],特别是当他们最终不信任数据时,必须围绕这些不利事件制定计划,这一点极其重要。"

他还表示,为实施人工智能系统而建立治理机制是一回事,但管理技术及其使用生命周期中的治理和风险同样关键。

"系统上线后你该怎么办?"他问道,"将需要利用新兴技术来监控模型、结果,并在模型发生漂移或产生'幻觉'时帮助组织提供预警指标。"

在本次采访中,贝利还讨论了以下内容:

  • 医疗保健中人工智能应用涉及的不断演变的威胁和风险;
  • 人工智能在改善医疗保健网络安全中的应用及相关风险;
  • 医疗保健行业实体需要考虑的其他重要人工智能信任和治理问题。

贝利是克莱沃特公司的咨询与战略副总裁,负责为全国医疗保健组织提供企业级网络安全和风险管理服务。他拥有超过24年的网络安全经验,其中14年专注于医疗保健领域。此前,贝利曾在美国空军担任通信和信息官13年,领导职务遍及五角大楼、国内基地和海外行动。

【全文结束】