评估先进人工智能技术时代私人保管健康数据的风险
人工智能(AI)在医疗领域的应用日益普遍。AI能够协助诊断疾病、管理患者记录、预测疾病暴发并简化行政工作。例如,美国食品药品监督管理局(FDA)批准了一种利用眼部图像检测糖尿病视网膜病变的AI系统。此外,DeepMind等公司也利用AI监测医院中的肾损伤案例。这些例子表明,AI已经成为日常医疗的一部分。
然而,当私人科技公司创建并控制这些AI系统时,处理敏感患者数据变得复杂起来。美国的医疗系统由私营和公共机构共同组成,许多私营公司收集并使用大量健康数据。这引发了关于数据控制权、数据用途以及患者隐私保护的问题。
私人保管患者数据的主要隐私问题
主要隐私问题集中在私人公司如何获取、使用和控制健康信息。医院和医生必须遵守《健康保险可携性和责任法案》(HIPAA)等法律,但一些科技公司可能并不遵循相同的规定。他们可能会优先保护商业利益而非患者隐私。
例如,DeepMind曾与伦敦皇家自由NHS信托共享患者数据,但并未获得明确的同意。在美国,类似的合作可能引发患者隐私担忧,因为私人公司可能更关注商业目标而忽视数据隐私。
2018年的一项调查显示,只有约11%的美国成年人愿意将自己的健康数据分享给科技公司,但近72%的人信任将其分享给医生。这表明患者对医生的信任远高于科技公司。
再识别风险与数据匿名化的局限性
AI健康数据的一大风险是再识别,即通过本应匿名的数据推断出个人身份。即使删除了姓名和身份证号码,智能AI程序仍可通过模式识别找出数据所属者。
研究发现,在一项研究中,大量成人和儿童即使在数据“匿名化”后仍被重新识别。因此,仅仅删除姓名和社会安全号码等方法可能不足以保护隐私。
这对医疗管理者和IT人员尤为重要。当私人公司存储和处理健康数据时,数据被滥用或泄露的风险会增加。
黑箱问题:AI决策缺乏透明度
AI在医疗领域的另一个问题是“黑箱”现象。AI系统,尤其是深度学习模型,其运作方式复杂,甚至其创造者也无法完全理解。这使得医生难以了解AI是如何做出决策的。
例如,AI可能将某位患者标记为某种疾病的高风险人群。但如果医生无法查看原因或验证过程,他们可能不会信任AI的建议。这种不透明性还可能导致偏见或错误未被发现,从而危害患者并引发法律问题。
由于商业机密的原因,私人公司可能不愿公开其AI的工作原理,这使得追究责任变得更加困难。
监管挑战与更新监督的必要性
监管持有健康数据的私人公司是一项复杂的任务。现行法律是在AI广泛应用于医疗之前制定的,未能全面覆盖诸如再识别、AI决策隐秘性或公司利用数据盈利的新方式等问题。
欧洲委员会等组织已提议类似于《通用数据保护条例》(GDPR)的新AI规则以保护隐私。在美国,FDA等机构虽批准了AI医疗工具,但尚未就数据所有权、隐私或使AI系统接受审查制定明确规则。
专家表示,患者必须拥有控制权,这意味着他们应知情同意、选择谁可以查看其数据,并可在任何时候撤回许可。医疗管理者需要理解这些规则,并选择重视隐私和透明度的AI供应商。
公私合作对医疗AI的影响
公共医疗机构与私人科技公司合作可以加速创新并改善护理质量,但也使数据控制更加复杂,尤其是在患者同意方面。
DeepMind与NHS的案例显示,公共机构有时未能让患者对其数据拥有足够的控制权。在美国,类似的合作伙伴关系应明确规定数据用途、所有权以及如何遵守HIPAA等隐私规则。
医疗管理者必须仔细审查这些协议,以保护患者权利并确保强大的数据安全性。
AI在医疗前台工作流程自动化中的应用
如果使用得当,AI还可以改善医疗办公室的运营。一个领域是AI驱动的电话系统,用于处理预约安排、回答患者问题以及发送提醒。这些系统减轻了员工的工作负担,加快了响应速度,并减少了人为错误。
但这些AI工具也会涉及患者信息,如预约时间和联系方式。因此,必须确保这些系统严格遵守数据安全规定,防止未经授权的访问或数据泄露。
实践管理者和IT人员应检查AI供应商是否有良好的隐私政策、使用强加密技术并遵守医疗法规。患者必须清楚地了解其数据的使用和保护方式。
AI自动化可以设置为防止因人为错误或不必要的数据共享导致的患者信息泄露。根据HIPAA,保护健康信息至关重要。
生成数据与先进隐私技术的需求
减少隐私风险的一种方法是使用生成数据模型。这些模型生成看似真实但与实际个体无关的假数据,使AI系统能够在不危及真实患者隐私的情况下进行学习和改进。
除了传统的匿名化方法,新的隐私保护技术还包括强加密、特殊数学隐私技术和持续监测再识别风险。
医疗管理者应紧跟这些新技术,并要求AI供应商采用它们以更好地保护患者数据。
数据泄露与美国公众信任的影响
美国及其他地区的医疗数据泄露事件有所增加。这些泄露暴露了患者的私人信息,可能导致身份盗用、经济损失和信任危机。
由于许多AI供应商是私营公司,他们可能因商业目标而未能始终专注于严格的隐私保护。
因此,许多患者不愿与科技公司分享数据。约31%的美国人信任科技公司保护健康数据。这种信任缺失可能减缓新AI工具的应用。建立信任需要强有力的数据安全和透明度。
对医疗实践管理者、所有者和IT经理的建议
- 仔细审查AI供应商:超越广告宣传,检查其隐私政策、数据安全和法律合规性。
- 要求透明度:确保AI供应商解释其系统的工作原理,并尽可能允许审查。
- 优先考虑患者同意:清楚告知患者其数据的用途并获得其许可。
- 实施数据最小化:仅共享AI运行所需的患者数据。
- 监控数据泄露:拥有强大的网络安全措施,并制定应对数据泄露的计划。
- 寻求使用合成数据的AI解决方案:使用处理假数据的工具以降低隐私风险。
- 及时了解法规:遵循HIPAA、FDA和新AI法律的规定。
- 培训员工数据安全:确保所有员工理解隐私政策以及如何保护患者信息。
私人控制AI医疗中的患者数据既带来了机遇也带来了挑战。美国的医疗领导者需要在利用新技术与保护患者隐私和信任之间取得平衡。前台任务中的AI和新的隐私保护方法可以在保障数据安全的同时改善医疗服务。
通过谨慎使用AI并要求严格执行规则和道德数据使用,医疗管理者可以更好地为患者和社区保护敏感健康信息。
(全文结束)


