医院如何界定AI的安全部署标准How do hospitals define ‘safe to deploy’ for AI?

环球医讯 / AI与医疗健康来源:www.beckershospitalreview.com美国 - 英语2025-11-08 19:46:26 - 阅读时长3分钟 - 1330字
随着人工智能深度融入临床工作流程,美国医疗机构正通过建立多维度评估体系界定AI工具的"安全部署"标准,核心聚焦临床可靠性、算法偏见控制及伦理透明度,要求所有工具必须通过监管合规审查、真实世界性能验证及跨职能团队持续监测,确保技术仅作为人类判断的增强而非替代,其中高风险诊断类工具需经严格验证,而所有系统均坚持"人在环路"原则以保障患者安全与数据隐私。
医院AI安全部署健康临床可靠操作稳定算法透明患者安全医疗质量风险评估临床医生主导权
医院如何界定AI的安全部署标准

随着人工智能技术深度融入临床工作流程,医疗机构正为"安全部署"的AI工具划定更清晰的边界——并明确审批权责归属。

加利福尼亚州罗斯维尔复临健康系统首席医疗信息官埃拉·萨蒂博士表示,安全性不仅是技术层面的检查项,更是一种伦理立场。"AI的安全性不仅关乎准确性,更关乎责任归属,"萨蒂医生强调,"每项AI工具在部署前必须证明其临床可靠、操作稳定且算法透明,因为技术应增强而非取代人类判断。"

在各医疗机构中,平衡效率与监管、创新与审慎正成为负责任采用AI的试金石。加利福尼亚州欧文分校医疗中心首席医疗信息官迪普蒂·潘迪塔博士指出,该系统的治理框架围绕临床验证、偏见控制和透明度构建。任何待部署工具均需接受监管合规性、数据隐私及"真实世界表现"评估,由信息学、信息技术与临床专家组成的跨职能团队持续监测性能,确保AI"在不损害临床判断或患者安全的前提下提升医疗质量"。

部分机构正将审慎态度制度化。新泽西州帕拉默斯山谷医疗系统首席医疗信息官纳迪姆·艾哈迈德博士透露,该机构近期通过AI政策,要求供应商详细说明模型设计、偏见处理、重训练流程及"幻觉"风险。内部AI工作组据此进行风险评估并提供建议。"这使我们具备AI专项风险评估能力,同时尊重临床医生自主决策权——他们有权选择最符合患者需求的AI增强型产品,"艾哈迈德医生解释道。

区域性医疗机构同样实施管控措施。北卡罗来纳州罗利威克医疗中心首席医疗信息官尼尔·乔拉博士表示,医院会先在"积极参与的临床医生"中开展小规模试点再逐步推广。"我们系统评估收益、风险、错误、幻觉及偏见,"乔拉医生指出,"迄今为止,我们的AI应用始终在AI与患者之间设置人工审核环节——尚未部署任何无需人工干预即可直面患者的AI系统。"

部分领导者正通过风险分级防止实验性应用超越审慎原则。印第安纳州韦恩堡帕克维尤医疗中心首席医疗信息官马克·马布斯博士将工具分为高、中、低风险三级——"类似在临床应用前对创新进行分诊"。影响诊断或治疗的高风险系统需经多轮严格验证,而日程管理等低风险工具虽审核简化但仍受规范约束。"只有当AI工具证明其准确性、透明度,并确保临床医生牢牢掌握主导权时,才能获得批准,"马布斯医生强调。

洛杉矶使命社区医院首席医疗信息官杰森·拉·马尔卡博士认为安全始于应用目的:"选择任何工具——无论是AI还是其他技术——我必须明确其解决的具体问题。"这意味着追溯数据来源、通过循证医学验证模型,并确认临床医生能"接受、拒绝或修改"AI生成的建议。安全与数据保护不可妥协:"我们必须确保未经授权者无法识别任何患者数据,"他补充道。

医疗机构已不再质疑是否采用AI,而是聚焦如何建立信任。在这个关乎患者生命的领域,"安全部署"的内涵正超越代码安全——其本质是确保临床医生而非算法始终掌控医疗决策。

【全文结束】

大健康
大健康