全面采用人工智能的同时如何限制法律责任:专业护理机构的探索Inside the effort to limit legal exposure while going all-in on AI in SNFs

环球医讯 / AI与医疗健康来源:www.mcknights.com美国 - 英语2026-05-06 19:44:56 - 阅读时长4分钟 - 1925字
随着人工智能在专业护理机构(SNFs)中的广泛应用,医疗机构正面临如何平衡技术创新与法律风险的挑战。本文详细探讨了在全面采用AI技术的同时,医疗机构如何通过建立强有力的治理框架、确保数据隐私安全、实施有效监督机制来限制法律风险,以及应对不断变化的监管环境。专家指出,AI虽然能弥补人手短缺、提高效率和改善护理质量,但若缺乏对模型的理解、结果监督和审计能力,可能导致严重问题。各州不断涌现的人工智能法规要求医疗机构必须从企业风险管理角度而非简单的IT监督来对待AI治理,确保符合CMS、FDA以及各州法律要求,从而保护患者数据安全并建立与各方的信任。
专业护理机构医疗人工智能护理质量临床决策医疗合规患者隐私医疗风险治理健康数据保护
全面采用人工智能的同时如何限制法律责任:专业护理机构的探索

法律专家警告称,医疗机构正越来越多地依靠人工智能工具来弥补关键行政领域的人手短缺,但在实施过程中走捷径将增加长期风险。

即使是最好的产品,以及专门为专业护理机构(SNFs)设计的产品,如果医疗机构在缺乏对特定模型的理解、结果监督或审计洞察和行动能力的情况下仓促推出,也可能失控。

"鉴于对不存在的员工的依赖,人工智能提供了巨大的解决方案,并可能成为解决许多专业护理机构问题的救星。人工智能可以弥补大部分人手缺口,"谢泼德律师事务所(Sheppard)医疗业务合伙人、律师格雷格·史密斯(Greg Smith)表示。"它可以简化流程、提高效率、辅助临床决策、改善护理质量。它能做好很多事情,真正改善你的经营状况,但你必须从现在开始为此做好准备。"

史密斯和谢泼德律师事务所医疗业务部门的其他律师在最近举办的一场网络研讨会上探讨了人工智能对专业护理机构的风险、合规策略和潜在回报。

他们表示,随着人工智能的成熟并与跨孤岛的各种数据解决方案连接——并越来越多地影响临床决策——保护数据基础设施并确保结果得到适当使用将变得越来越重要。

"那些能够尽早建立强有力治理框架并在适当护栏内确保隐私和机密性的组织,将能够实现我们一直在谈论的持续成果,"史密斯表示。"但我们正站在这一巨大变革的前沿,人工智能不再是什么遥远的未来。它已经到来。2026年,它已经在这里。"

谢泼德律师事务所合伙人卡罗琳·梅特尼克(Carolyn Metnick)表示,联邦立法者和监管机构在规范医疗保健领域人工智能使用方面可能仍然落后,但医疗机构不能认为这种情况会持续下去。相反,医疗机构及其董事会必须考虑人工智能技术如何可能使整个运营面临新的风险。

她补充道,人们越来越认识到,人工智能影响合规性、声誉、运营弹性和业务连续性,这些"必须在公司治理的最高层面上得到解决。"

信任但要验证

对于刚开始尝试人工智能的医疗机构来说,这是一个合规性和安全问题,它们不能仅仅因为没有直接适用于其环境的政府标准就跳过监督责任。

美国卫生与公众服务部(HHS)在去年12月发布了关于加速临床护理中人工智能采用的信息请求,但尚未跟进提出规则建议。医疗机构和协会要求联邦官员简化规则,但也鼓励谨慎行事。例如,美国医院协会(American Hospital Association)建议的政策是"确保临床医生参与可能影响医疗服务获取或提供算法的决策循环,为第三方供应商提供一致的隐私和安全标准,并使用部署后标准来确保医疗人工智能工具的持续完整性。"

梅特尼克指出,一些联邦法律,如HIPAA隐私标准,可能已经延伸适用于人工智能工具和工作产品。各州也出现了越来越多的人工智能法律拼凑。这些需要跨州运营的大型组织给予额外关注。

"人工智能治理不仅仅是IT监督。它是企业风险管理,"梅特尼克表示。"早期建立治理的组织将更好地应对监管审查——我们知道这迟早会发生——并安全地采用人工智能,或者至少减轻风险。"

工具的激增需要仔细考虑风险、了解可能出现的问题,并具备为内部使用或供应商平台实施护栏或规则的能力。

梅特尼克表示,在护理环境中检测和追踪人工智能引入的错误可能非常困难。但健全的治理可以防止更多的临床和操作错误,或者至少减轻风险。

"它可以减少偏见和不安全的自动决策,"她说。"它支持监管合规,减轻责任风险,并建立与患者、家属、监管机构和执法者的信任。……组织必须了解数据流、隐私问题、模型训练、供应商数据权利、谁在决定不同的供应商合同——所有这些概念都需要解决。"

不要使用模板

医疗机构对其使用的工具保持透明度并能够追究其软件或其他人工智能合作伙伴的责任也很重要。梅特尼克建议运营商确保他们有权利和能力通过审计进行评估,并确保任何使用的模型都符合特定的临床性能标准。

如果不这样做——或者如果医疗机构试图使用从互联网上获取的通用合规模板——受保护的健康信息、人员配置水平和工作流程可能会面临风险。而且有很多律师和其他人在监控这一点。

"我们有CMS(美国医疗保险和医疗补助服务中心)对质量和安全的监管期望。我们有FDA(美国食品药品监督管理局)法律。我们有各州的人工智能法律……以及州总检察长在关注人工智能的部署和关于工具的表述,"梅特尼克表示。"使用人工智能的公司必须明白,由于这一领域如此复杂且不断发展,法律监督是必需的,这一点非常重要。"

【全文结束】