昨天,Somerset NHS基金会信托的数据、运营研究和人工智能首席科学家Andy Mayne在LinkedIn上分享了该信托的最终版AI政策,重点在于安全集成和创新与伦理及法律责任之间的平衡方法。为了确保政策具有前瞻性,文件指出,尽管目前最先进和复杂的AI模型(如Siri、Alexa、Chat-GPT等)仍属于狭义AI,但必须为未来的发展做好准备,确保有相应的保护措施。
该政策涵盖了信托的所有员工、子公司员工、使用AI的流程、AI数据和技术系统,承诺在使用AI技术时促进平等和包容,旨在防止AI系统中的偏见和歧视,并促进决策过程中的公平和透明。具体而言,政策规定AI系统应设计和实施得当,以防止基于受保护特征的歧视,并进行彻底测试,确保不会延续偏见。第三方供应商也需证明其数据集能代表Somerset的人口。
政策还涉及AI系统提供的机会的平等访问、AI系统的透明度、新资产需在信托的信息资产登记册中注册,以及遵守临床风险管理的DCB 0160框架,识别产品生命周期中的风险。在责任和问责方面,政策要求明确的责任线,所有AI模型的决策过程均需有人类监督,并设有允许人类干预的机制,以防模型产生错误、有害或误导性信息。
关于责任问题,政策举例说明,如果Somerset NHS基金会信托的员工在患者可识别信息上使用大型语言模型,则责任在于该员工,而不是AI模型。另一个例子涉及组织使用存在不公平偏见的第三方AI产品,政策指出,第三方应确保其训练数据集能充分代表多样化的患者群体。如果组织不知情而继续使用该产品,则第三方负责;如果组织知情并继续使用,则组织负责。
在网络安全方面,文件规定所有集成“AI生成插件”的资产需进行评估,确保合规,同时通过排除可识别信息的训练数据集来降低信息意外泄露的风险。对于采购决策,政策建议信托优先考虑透明运营实践的公司,采购时考虑可能需要培训以帮助解释结果,并确保使用AI软件在临床护理中获得的结果可以“用普通语言解释”,以便医生向患者传达技术信息。
在监测计划方面,政策规定所有使用AI的系统需“记录并定期审查(每年)”,并确保信息资产登记册的合规审计;通过在信托网站上公布任何使用信托数据进行训练的AI系统的详细信息,确保透明度和公开披露。
作为附录,政策提供了一个AI采购检查表,供软件供应商填写,涵盖方面包括AI所有权、目的、偏见和公平性、问责制、隐私、人类监督、可解释性、算法透明度和安全稳健性。Andy还分享了第二篇LinkedIn帖子,提供了AI政策的“简化版”,供信托员工参考,帮助他们安全使用AI。该文档简要概述了政策的关键点,涉及平等、公平、透明、安全和审批流程,并概述了信托中AI的一些应用实例。
其中一些应用实例包括皮肤科,信托报告称使用DERM系统审查患者扫描,帮助识别癌症并“优先处理患者路径”;使用Microsoft Copilot自动化工作流程,如将纸质文档转换为数字格式;以及在放射学中使用AI进行决策支持,“帮助识别X射线、CT和MRI扫描中的疾病”。信托还报告称使用AI预测入院情况,使用模型预测“患者在急诊科分诊时是否会入院”;预测未来活动;以及使用虚拟模型模拟医院系统(包括急诊科、住院患者和手术室)的变化,以在安全环境中建模变化。
点击此处阅读完整的AI政策。
NHS中的AI,更广泛的趋势
HTN在8月举行的一次小组讨论中探讨了AI的现实是否能达到当前的炒作程度以及如何管理医疗数据中的偏见,讨论了负责任AI的标准、确保包容和公平的AI以及NHS中AI的部署等问题。我们在LinkedIn上的一个调查显示,关注者认为AI在医疗保健中最大的担忧包括公平性、偏见、透明度或监管,其中监管得票最高。您还可以参与我们最近的一项调查,讨论短期内NHS的资金应投向哪些AI领域。
NICE最近推出了一项新的报告标准,旨在提高AI技术成本效益研究的透明度和质量,希望这将“帮助医疗决策者了解AI驱动治疗的价值”,并让患者更快获得最有前景的治疗方案。10月,我们探讨了NHS中的AI应用案例,包括支持诊断、个性化治疗、预测疾病等。我们还报道了DeepHealth收购伦敦癌症诊断公司Kheiron Medical Technologies Limited,以扩大其AI驱动的诊断和筛查解决方案组合;以及考文垂和沃里克郡大学医院使用AI改善患者体验的情况。
HTN的AI和数据奖项的启动是一个庆祝AI技术如何影响医疗和护理的机会,提供了一个平台来分享创新和项目,以帮助塑造未来的服务和系统。
(全文结束)


