联合委员会与健康AI联盟合作开发AI最佳实践和认证
The Joint Commission, CHAI Partner on AI Best Practices, Certification
联合委员会和非营利组织健康AI联盟(CHAI)宣布他们已经建立了一个合作伙伴关系,旨在加速在美国医疗系统中开发和采用AI最佳实践和指导。
今年4月,认证组织URAC宣布其医疗AI认证计划将在2025年第三季度启动。URAC的总裁兼首席执行官Shawn Griffin博士最近在接受《医疗创新》杂志采访时谈到了为什么AI认证如此重要。
此外,美国国家医学科学院刚刚发布了一份AI行为准则,作为“建立信任、保护患者并确保创新惠及人们的蓝图”。
联合委员会和CHAI表示,他们将利用自身的规模和专业知识共同开发一套AI手册、工具和新的认证计划,这些计划基于联合委员会的循证标准平台和CHAI的共识性健康AI最佳实践。
CHAI表示,该组织成立的目的是在医疗生态系统中建立最广泛的共识,以确保健康AI的安全性和可信度。其成员已增长到近3000个组织,包括学术医疗中心、区域和农村医疗系统、医疗技术领导者和初创企业、政府专家以及患者倡导者。
首批指导将于2025年秋季发布,随后将推出AI认证。
“在未来十年,没有什么比AI更能改变医疗保健了,无论是在创新、转型还是颠覆方面,”联合委员会主席兼首席执行官Jonathan B. Perlin博士在一份声明中说。“虽然我们无法准确预测未来医疗保健的具体面貌,但AI的整合及其改善患者护理质量的巨大潜力——只有我们在正确的方式下进行。”
“AI在医疗保健中的整合既带来了重大机遇,也带来了复杂挑战。联合委员会和健康AI联盟之间的这一努力代表了一种深思熟虑的方法,以最好地部署和实施这些新兴技术,”斯坦福医疗保健的首席信息和数字官Michael Pfeffer博士在一份声明中说。“它旨在提供的指导、工具和认证将有助于加速创新、降低风险,并使医疗机构能够充分利用AI的潜力来改善患者结果和临床工作流程。”
新AMA政策
美国医学会(AMA)最近在其众议院年度会议上通过了一项政策,旨在最大限度地提高对这些工具的信任,并增加对其如何得出结论的透明度。新政策要求可解释的临床AI工具应包括安全性和有效性数据。为了被认为是可解释的,这些工具应该提供背后的解释,医生和其他合格人员可以访问这些解释,以便在决定患者的最佳护理时进行解读和采取行动。
新政策还要求由独立第三方(如监管机构或医学协会)确定算法是否可解释,而不是依赖于开发者的声明。
该政策指出,可解释性不应作为其他建立AI工具安全性和有效性的手段的替代,例如随机临床试验。此外,新政策呼吁AMA与专家和相关方合作,制定和传播有关医疗AI及其监督的关键概念定义列表。
(全文结束)
声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。
本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。