联合委员会与健康人工智能联盟发布医疗人工智能应用指南

TJC, CHAI Publishes Guidance on AI in Healthcare

美国英文人工智能与医疗健康
新闻源:National Law Review
2025-10-14 19:42:50阅读时长3分钟1456字
医疗人工智能健康AI工具医疗机构负责任使用指南患者隐私数据安全质量监控风险与偏见评估教育与培训健康

联合委员会(TJC)与健康人工智能联盟(CHAI)近日发布了《医疗人工智能负责任使用指南》(以下简称《指南》),为医疗机构优化整合健康AI工具提供实践策略。该《指南》将健康AI工具广义定义为应用于直接或间接患者护理、护理支持服务及护理相关运营行政服务的临床、行政或运营解决方案,其通过算法方法执行任务。鉴于此广泛定义,《指南》识别出AI相关的多重潜在风险,包括操作错误、透明度缺失、数据隐私安全威胁以及对AI工具的过度依赖。为应对这些挑战,《指南》提出医疗机构实施AI工具时应遵循的建议实践,归纳为七大核心要素。尽管《指南》适用范围不限于医疗服务机构,但主要聚焦此类组织。需特别说明的是,该文件对医疗机构不具备强制约束力,但TJC表示将推出"AI负责任使用"自愿认证计划。

医疗机构AI工具负责任使用的七大要素:

一、 AI政策与治理结构

《指南》建议机构建立正式的AI使用政策及治理架构。TJC与CHAI指出,政策应明确使用期望,包括具体规则或程序;治理委员会应由合规、信息技术、临床项目、运营及数据隐私部门的合格代表组成。《指南》还建议定期向机构董事会或其他受托治理机构汇报AI使用情况。

二、 患者隐私与透明度

机构应制定符合现行法律法规的数据访问、使用及透明度专项政策。为提升透明度,需向患者说明AI在其护理中的角色,包括数据使用方式及AI如何优化护理服务。在适用情况下,机构可能需要获取患者对使用AI工具的知情同意。《指南》强调,对员工的AI使用透明度同样不可忽视。

三、 数据安全与使用保护

《指南》强调,所有涉及患者数据的AI应用必须符合美国健康保险流通与责任法案(HIPAA)要求。医疗机构可通过现有数据保护策略支持合规,包括加密患者数据、限制数据访问权限、定期评估安全风险以及制定事件响应预案。TJC与CHAI建议机构签订数据使用协议,明确允许用途、最小化数据导出、禁止重新识别身份、要求第三方遵守机构安全政策,并赋予机构审计权。

四、 持续质量监控

除隐私风险外,《指南》建议机构通过追踪结果变化及对照已知标准测试AI工具,定期监控AI质量。外部开发的AI工具可能缺乏一致性审查,而AI的动态特性易导致其偏离预期用途;因此《指南》呼吁建立内部报告系统以识别风险并保障护理质量。TJC与CHAI建议采用基于风险的监控方式,优先关注影响临床决策的AI工具。同时,《指南》要求机构建立向管理层及供应商报告不良事件的流程。

五、 自愿报告机制

《指南》敦促机构建立向独立组织保密匿名报告AI安全事故的流程。通过向联邦认证的患者安全组织等第三方渠道报告,可在不损害患者隐私的前提下提升AI使用质量。

六、 风险与偏见评估

《指南》建议机构实施AI偏见或风险分类及记录流程。在临床应用中,AI可能无法将疾病模式推广至特定人群,导致误诊及低效护理。TJC与CHAI推荐机构验证AI工具是否适配目标人群,并确认其开发使用了具有代表性且无偏见的数据集。

七、 教育与培训

为确保AI发挥最大效益,《指南》主张对医护人员及员工开展AI工具使用培训,包括其局限性与潜在风险。机构应基于必要性限制AI工具访问权限,并指导员工获取相关AI工具及机构政策的信息渠道。

实施意义

在联邦层面尚无全面AI监管法律的背景下,《指南》(连同美国国家标准与技术研究院(NIST)AI风险管理框架及两党众议院人工智能特别工作组报告等现有资源)可协助医疗机构安全合规地评估与部署AI工具。

与NIST风险管理框架实践手册类似,TJC与CHAI计划发布系列操作性"实践手册"以落实《指南》建议。寻求实操指引的医疗机构需关注这些手册,因其将构成TJC未来AI认证计划的基础。

总体而言,《指南》提出的策略有助于医疗机构最小化AI风险,营造适应性强的医疗环境。

劳伦·路德维希对本文有贡献

【全文结束】

声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。

本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。