影像公司与AI公司共享患者扫描数据Imaging Firm Shares Patient Scans with AI Company

环球医讯 / AI与医疗健康来源:www.miragenews.com澳大利亚 - 英语2024-12-17 04:00:00 - 阅读时长6分钟 - 2540字
澳大利亚最大的放射学提供商I-MED在未获得患者明确同意的情况下,将其去标识化的患者数据提供给一家人工智能公司用于训练AI模型,引发了隐私保护和伦理问题的讨论。
I-MEDAI公司患者扫描数据澳大利亚隐私政策隐私立法人类研究伦理委员会数据治理AI研究伦理
影像公司与AI公司共享患者扫描数据

澳大利亚最大的放射学提供商I-MED最近被《Crikey》报道,其在未获得患者明确同意的情况下,提供了去标识化的患者数据给一家人工智能公司。这些数据包括X光片和CT扫描图像,用于训练AI模型。

作者

  • Stacy Carter

教授及主任,澳大利亚健康参与、证据与价值观中心,伍伦贡大学

  • Megan Prictor

高级讲师,墨尔本大学法学院

这引发了澳大利亚信息专员办公室的调查。此前,I-MED还发生了一起涉及2006年以来患者记录的数据泄露事件。据报道,愤怒的患者正在避开I-MED。

I-MED的隐私政策确实提到了“根据澳大利亚法律授权,与研究机构共享数据”。但只有20%的澳大利亚人会阅读并理解隐私政策,因此这些披露令一些患者感到震惊。

那么,I-MED是如何与其他公司共享患者数据的?我们如何确保患者能够选择未来医疗数据的使用方式?

关键参与者是谁?

许多人都曾在I-MED进行过扫描:它是一家拥有超过200家放射诊所的私营公司,这些诊所提供的医学影像(如X光和CT扫描)帮助诊断疾病和指导治疗。

2019年,I-MED与AI初创公司Harrison.ai合作,共同开发用于放射学的AI系统Annalise.ai。I-MED诊所是Annalise.ai系统的早期采用者。

I-MED一直在收购其他公司,并已挂牌出售,据报道售价为40亿澳元。巨大的商业利益牵涉其中,许多患者可能受到影响。

为什么AI公司需要你的医学影像?

AI公司需要你的X光片和CT扫描图像,因为它们需要大量数据来“训练”其模型。在放射学的背景下,“训练”AI系统意味着让其接触大量图像,以便“学习”识别模式并提出可能的问题。

这意味着数据对AI初创公司和大型科技公司来说都具有极高的价值,因为某种程度上,AI是由数据构成的。

你可能会认为这是一个无序的领域,但实际上并非如此。在澳大利亚,有多种机制控制着你的健康相关数据的使用。其中一个层面是澳大利亚的隐私立法。

隐私立法怎么说?

I-MED提供的图像是《澳大利亚隐私法》下的“敏感信息”,因为它们可以识别个人。

法律规定,组织在超出原始目的(在这种情况下,为你提供医疗服务)的情况下披露此类信息的情况有限制。

一种情况是个人已经给予同意,但在这种情况下似乎并非如此。

另一种情况是个人“合理预期”到披露,且披露的目的与收集的目的直接相关。根据现有事实,这也显得有些牵强。

这留下了一种可能性,即I-MED依赖于“为公共健康或公共安全相关的研究、统计编制或分析而必要的披露”,在这种情况下,获得个人同意是不切实际的。

公司方面公开表示,这些扫描图像已经去标识化。

去标识化信息大多不在《隐私法》的管辖范围内。如果再识别的风险非常低,去标识化信息可以被使用,且法律风险较小。

但去标识化是一个复杂的过程,具体情况具体分析。至少有一位专家认为,这些扫描图像并未充分去标识化,因此不应脱离法律保护。

对《隐私法》的修改加强了对侵犯隐私行为的处罚,尽管澳大利亚信息专员办公室资金不足,执法仍面临挑战。

我们的数据还有哪些保护措施?

在澳大利亚,还有更多层面对健康相关数据的管理。我们将考虑其中的两层。

组织应有数据治理框架,明确规定谁负责,以及如何操作。

一些大型公共机构拥有非常成熟的数据治理框架,但并非所有地方都是如此。2023年,研究人员指出澳大利亚迫切需要一个全国系统,以使这一过程更加一致。

澳大利亚还有数百个人类研究伦理委员会(HRECs)。所有研究在开始前都应由这样的委员会批准。这些委员会根据《人体研究伦理行为准则》评估申请的研究质量、潜在益处和危害、公平性和对参与者的尊重。

但国家卫生和医学研究委员会认识到,人类研究伦理委员会需要更多的支持,特别是评估AI研究的质量、低风险和潜在益处。

伦理委员会如何运作?

人类研究伦理委员会决定研究中所需的同意类型。

已发表的Annalise.ai研究获得了批准,有时是从多个人类研究伦理委员会获得的,包括对“豁免同意”的批准。这是什么意思?

传统上,研究涉及“选择加入”同意:个体参与者在研究开始前给予或拒绝参与的同意。

但在AI研究中,研究人员通常希望获得使用已有大规模数据湖中部分数据的许可,这些数据湖是常规医疗保健过程中创建的。

进行此类研究的研究人员通常会要求“豁免同意”:获得使用数据而无需明确同意的批准。在澳大利亚,这只能由人类研究伦理委员会在某些条件下批准,包括风险低、益处大于危害、隐私和保密得到保护、获得同意不切实际,且“没有已知或可能的原因认为参与者不会同意”。这些问题并不总是容易确定的。

豁免同意听起来可能不尊重人,但它承认了一个困难的权衡。如果研究人员向20万人请求使用旧医疗记录进行研究的许可,大多数人不会回应。最终样本将很小且有偏差,研究质量会较差,甚至可能毫无用处。

正因为如此,人们正在研究替代模型。一个例子是“治理同意”,即在社区合作建立治理结构后,再要求个人对其数据的未来使用给予同意,前提是这些使用符合治理结构下的批准目的。

倾听消费者的声音

我们在AI研究伦理方面正处于一个十字路口。政策制定者和澳大利亚人都认为,我们需要使用高质量的澳大利亚数据来构建主权健康AI能力,以及适用于所有澳大利亚人的健康AI系统。

但I-MED案例表明了两点。至关重要的是,要与澳大利亚社区就何时以及如何使用健康数据来构建AI进行沟通。同时,澳大利亚必须迅速加强和支持现有的基础设施,以更好地治理AI研究,赢得澳大利亚人的信任。

Stacy Carter曾从国家卫生和医学研究委员会、医疗研究未来基金、国家乳腺癌研究基金会和澳大利亚医疗安全与质量委员会获得资金,用于研究医疗保健领域的AI。她曾从专业机构、监管机构、研究小组和医疗责任保险公司获得旅行支持,以在会议上发言,讨论消费者对医疗保健领域AI的看法。她与消费者组织、医疗专业组织以及州和联邦卫生部门和机构合作,研究医疗保健领域的AI和数据治理。

Megan Prictor不为任何公司或组织工作、咨询、持有股份或接受资金,这些公司或组织不会从本文受益,且除了她的学术职务外,未披露任何相关关系。


(全文结束)

大健康
大健康