临床试验是医疗保健数据中AI应用显著增长的关键领域,但这带来了独特的法律挑战。AI开发通常依赖从临床试验中收集的数据来训练算法,这要求仔细考虑同意、数据来源和伦理标准。当数据从第三方来源获取时,关于收集方法、地理来源和匿名化标准的透明度变得至关重要。虽然临床试验中使用的知情同意书可以提供更明确的数据使用条款,但在试验结束后如何将这些数据重新用于AI目的仍存在模糊之处。
主要关注点之一是数据再识别,即匿名数据可能通过与其他数据集关联而追溯到个人。在医疗保健行业,尤其是在美国,数据所有权也是一个复杂且常常模糊的领域。AI开发者必须向医院网络安全团队清楚解释数据收集的价值,确保他们了解数据将如何安全和道德地使用。
欧洲联盟的《AI法》提供了一个通过采用基于风险的方法来监管AI的有力模型。在此框架下,医疗数据被归类为“高风险”类别,需要严格的质量控制和伦理标准。这种方法强调数据准确性、公平性和稳健性,解决了许多围绕在医疗保健中使用AI的伦理问题。基于风险的模型特别适合管理健康数据的复杂性,确保数据质量高标准,同时不妨碍创新。
网络安全是另一个关键问题,因为健康数据特别容易受到攻击,可能导致身份盗用、欺诈等风险。伦理问题也非常重要,因为不当使用健康数据可能导致负面公众反应,削弱对医疗保健提供者和AI技术的信任。
鉴于这些复杂性,在2024年加拿大多伦多举行的MEDTECH 2024会议上,专家小组讨论了“解锁健康数据:为创新导航法律雷区”的议题,并提出了几项建议。
明确的所有权权利允许负责任的数据共享
建立明确的数据所有权框架是至关重要的。制定关于临床试验和医疗保健提供者数据所有权的精确指南,将促进透明度,减少数据使用冲突。明确的所有权权利可以为负责任的数据共享实践提供基础。
与医疗保健提供者的沟通同样重要
AI开发者应进行开放沟通,以医院工作人员和网络安全团队能够理解的方式解释技术和法规术语。
采用基于风险的监管方法
类似于欧盟《AI法》的基于风险的监管方法,将创建一个灵活但高标准的监管环境。该方法将健康数据使用分类为高风险,实施严格的控制,同时仍然促进技术进步。
公众教育也是关键
关于数据安全和伦理的公众教育同样重要。教育公众有关数据安全实践和道德AI使用可以帮助建立信任,解决关于数据隐私和AI的常见担忧。公众意识倡议可以澄清为什么收集某些数据以及如何保护这些数据,进一步增强对这些技术的信心。
(全文结束)


