在加拿大快速发展的数字健康环境中,关于健康数据的访问、管理和商业化的问题日益受到关注。人工智能(AI)专家和联邦顾问最近呼吁加强数据透明性,这凸显了一个日益紧张的矛盾:我们如何在保护公众信任的同时释放健康数据的力量?
这种争论往往变得两极分化。一方面,有人强烈呼吁保护个人(患者)健康信息免受滥用或商业剥削;另一方面,则有人施压要求利用患者数据推动创新、改善人口健康和提高整个系统的效率。这些立场常常被视为相互排斥,但在这其中确实存在一种平衡。
在当今的数字生态系统中,患者数据可以用于营销、影响处方或决定临床试验的资格,而患者往往并不完全知情。这些做法在技术上可能是合法的(或取决于解释的角度是否符合伦理),尤其是当数据被去标识化时,但它们通常隐藏在同意书的细小条款中,或埋藏在层层企业合作之下。
首先,缺乏透明性,这在大多数(如果不是全部)案例中揭示了一种不应轻易归咎于政策疏忽的伦理失败。患者有权知道:谁看到了他们的数据,出于什么目的,结果是什么?如果人们无法轻松访问自己的记录,而私人行为者却可以挖掘这些数据以获取商业利益,那么卫生系统到底是在为谁的利益服务?
然而,这场对话不应停留在阻力上。当以负责任的方式使用时,聚合数据的二次利用具有巨大的潜力。我们已经看到这一点在实时疫情应对中得以体现,它加速了公共卫生洞察,并将患者与改变生命的临床试验联系起来。但负责任的使用意味着透明的治理、患者的代表性和严格的监督。
人工智能的出现加剧了这些紧张关系。基于大量健康数据训练的人工智能模型,为临床决策支持、更个性化的护理和疾病早期检测带来了希望。它们有潜力扩大医疗服务的可及性、增强患者参与度并支持以公平为导向的设计,尤其是在初级护理、心理健康和慢性病管理中。
但这些系统也引入了新的风险并提出了关键问题:这些模型使用的是谁的数据?谁来管理这些模型的应用?谁会受益——是患者、医疗服务提供者还是私人行为者?如果没有谨慎的管理,我们可能会加深不平等,扩大信任差距,并强化一个将患者视为创新对象而非合作伙伴的系统。
这就是辩论变得最为紧迫的地方,我们必须超越简单的二元对立(保护与进步,或隐私与潜力),重新构想一个承认健康数据风险和承诺的框架。
首先,我们需要以患者为中心的数据治理。知情同意应从一个被动的复选框演变为一场基于公众意识、建立在信任基础上的主动持续对话。对于数据的二次使用,选择退出机制应清晰、易获取并广泛宣传。
其次,透明性应成为标准而非例外。卫生系统、数据中介,甚至公共(或私人)资助的研究机构都应被要求披露患者健康数据是如何收集、使用和共享的,尤其是当这些数据被用于商业用途时。
第三,我们需要对商业伙伴关系进行公共监督。并非所有与行业的合作都是有害的,但当临床(或人工智能生成的)建议由基于患者数据训练的专有算法塑造时,护理与商业之间的界限就会变得危险模糊。伦理审查流程应优先考虑患者福祉而非盈利能力。
第四,人工智能系统必须通过公平的视角进行评估。这意味着确保训练数据具有代表性,对结果进行偏见审计,并让患者自身参与塑造这些工具——而不仅仅是被动接受。
最后,我们必须停止将数据视为商品,而应开始将其视为一种关系性善品。数据反映了一个人的健康历程、身份和脆弱性。管理而非所有权应指导我们对它的使用。这意味着将患者数据的管理视为一种特权而非权利,尊重原住民数据主权,嵌入文化响应治理实践,并在决策委员会中纳入患者的声音。
长期以来,患者一直被视为创新的对象,而非合作伙伴。加拿大现在有机会选择一条不同的道路,一条在尊重隐私、赢得信任的同时支持创新的道路,这条道路是道德且包容的。
这不是选择立场的问题,而是寻找平衡(关系性共同点)。这是关于学习如何在公平、透明和负责任地前进的同时,认识并处理患者数据所存在的矛盾。因为患者不仅应从他们的数据力量中受益,他们也有权知道、选择和信任。
【全文结束】


