医疗董事会必须推动AI治理和问责制Health Boards Of Directors Must Drive AI Governance And Accountability

环球医讯 / AI与医疗健康来源:www.forbes.com美国 - 英语2024-11-22 22:00:00 - 阅读时长5分钟 - 2002字
本文探讨了医疗董事会在推动AI治理和问责制方面的重要角色,强调了数据偏见、隐私安全和透明度等关键问题。
医疗董事会AI治理问责制医疗保健患者护理AI风险数据偏见数据隐私透明度可解释AI
医疗董事会必须推动AI治理和问责制

2022年6月,我呼吁董事会通过类似于审计和财务委员会的治理结构来负责网络安全。随着人工智能(AI)在医疗保健领域的快速采用,这一呼吁今天显得更加紧迫和关键。

从改善患者结果到简化运营,AI有潜力彻底改变医疗行业。然而,这些机会伴随着巨大的风险,从增加的网络安全威胁到伦理困境。董事会必须认识到他们在制定AI战略和管理持续AI治理中的关键作用,以确保AI系统是安全、可靠、透明和道德的。

推动问责制的重要性

AI不再是局限于研究实验室的未来概念;它已经成为了减少行政负担的重要工具,并将被广泛应用于各种临床场景,包括疾病检测和治疗指导。这大大提高了赌注,并引发了一个重要问题:AI应在多大程度上影响(甚至规定)患者护理?

许多高管私下担心,其医疗组织内AI的采用速度超过了领导层对其使用的适当治理能力。因此,董事会必须从被动监督转向积极问责,以应对AI采用的复杂性,包括可接受的使用案例、组织政策以及权衡将AI纳入临床决策的影响。

应对AI风险的复杂性

AI在医疗保健领域的部署带来了一系列董事会需要理解和有效管理的风险。

数据偏见和算法偏见: 数据偏见可能导致诊断、治疗计划和资源分配方面的歧视性结果。例如,如果AI系统是基于未充分代表某些人群的数据进行训练的,那么它在这些群体中的表现可能会较差,导致不公平的护理。即使数据没有偏见,算法也可能由于设计原因产生偏见,导致不公平待遇。董事会必须确保AI系统经过严格的偏见测试,并推动AI供应商在训练模型时使用多样化的数据集。

数据隐私和安全: AI系统通常需要大量个人数据,引发了关于这些数据如何收集、存储和使用的问题。例如,政府或公司可能会侵犯个人隐私权利。此外,AI系统容易受到对抗性攻击和数据投毒的影响,恶意行为者可能会破坏用于训练模型的数据,从而损害其完整性。实施强大的网络安全措施并遵守欧盟《通用数据保护条例》(GDPR)等数据保护法规是缓解这些风险的关键步骤。

缺乏透明度和解释性: 许多AI系统,尤其是深度学习模型,功能如同“黑箱”,难以理解其决策过程。这种不透明性阻碍了对AI驱动决策的质疑或理解,这在医疗等高风险领域至关重要。缺乏可解释的AI会削弱用户的信任,并使任何一方因AI决策中的错误或偏见而承担责任变得困难。董事会必须倡导采用可解释的AI技术,以增强透明度并确保利益相关者信任AI系统。

采用全面的AI治理框架

董事会应采用全面的AI治理框架,确保AI系统安全、透明并符合监管要求。IEEE UL 2933提供了医疗环境中AI安全和伦理的指南。NIST AI风险管理框架(RMF)概述了保障AI系统、解决漏洞和确保数据完整性的最佳实践。OWASP大型语言模型应用十大漏洞确定了AI模型中最关键的漏洞,以指导风险管理。利用这些框架有助于组织应对AI治理的复杂性。它们提供了实施安全措施、伦理指南和合规协议的结构化方法,这对于维持信任和问责制至关重要。

董事会在积极监督中的参与

积极的董事会参与对于有效的AI治理至关重要。董事会应确保AI系统不仅合规,而且道德地部署。这涉及将AI采用与组织的战略目标对齐,确保AI投资带来可衡量和可持续的结果。定期审核AI系统可以识别和减轻风险,确保符合欧盟AI法案等监管框架。建立关键绩效指标和报告机制允许董事会监控AI系统的持续有效性和合规性。

将透明度嵌入AI战略

增强透明度可以建立用户和利益相关者的信任。组织应提供定期审核、清晰的文档和AI决策过程的解释。实施可解释的AI技术可以让临床医生和患者了解AI系统如何得出特定结论,这对接受和信任至关重要。

实施透明度和信任的解决方案

为了克服透明度问题,组织可以采取几种策略:

可解释的AI技术: 使用可解释的模型和事后解释工具,如LIME(局部可解释模型不可知解释)或SHAP(Shapley加性解释)。这些工具帮助理解AI系统如何做出决策。

增强模型文档: 开发详尽的模型卡和数据表,详细说明模型的目的、性能指标、训练数据和局限性。这些文档有助于提高透明度,帮助利益相关者评估AI系统的适用性和可靠性。

监管合规和标准: 遵守要求透明度和道德AI使用的法律框架。参与行业标准和最佳实践的开发,促进一致和负责任的AI部署。

跨学科合作: 促进技术专家、伦理学家、法律专家和领域专家之间的合作。在AI开发中融入多样化的视角,确保从一开始就整合伦理考虑。

责任和法律责任: 明确当AI系统造成伤害时谁应承担责任——无论是开发者、用户还是组织。建立明确的责任结构有助于管理和承担法律责任和伦理责任。

结论

AI在医疗保健领域的变革潜力巨大,但随之而来的是重大责任。董事会必须对AI治理负责,确保AI系统不仅是创新的,而且是安全、道德和值得信赖的。通过采用全面的治理框架并积极参与监督,董事会可以成功且安全地应对AI风险的复杂性。


(全文结束)

大健康
大健康