在一次与信息安全媒体集团(Information Security Media Group)的访谈中,Akerman LLP律师事务所的律师乔丹·科恩(Jordan Cohen)表示:“如果超出了允许使用的范围,那么技术上来说,只要涉及到受保护健康信息(PHI),就可能被视为可报告的数据泄露。”
科恩提到,许多受HIPAA监管的企业和组织在部署主动性AI时应考虑的步骤“实际上并非特定于AI”。他解释道:“数据流清单将变得非常重要。也就是说,绘制并记录数据的输入、处理、存储方式,数据如何离开系统,供应商如何接触这些数据以及他们对数据的操作,将是至关重要的。”
“这些是我们多年来一直在讨论的做法,”他补充说,“但在主动性AI和其它AI部署的时代,它们变得更加重要了。”
在本次音频访谈中(点击照片下方的音频链接),科恩还讨论了以下内容:
- 主动性AI在医疗领域最常见的临床和行政用途,以及经常使用的PHI、电子健康记录(EHR)和其他类型的数据;
- 在多个机构间部署AI时需考虑的法律和监管问题,包括美国食品药品监督管理局(FDA)、联邦贸易委员会(FTC)、潜在的HIPAA安全规则更新以及州隐私法;
- 其他需要关注的关键AI问题,包括技术保障措施、事件响应监控、患者的透明度和知情同意;
- AI在提升医疗及其他领域数据隐私和安全方面的机会。
科恩是Akerman LLP的合伙人,并领导该公司的数字健康实践团队。他为涉及医疗服务提供商及其他医疗相关平台的交易提供法律建议,其中包括关于联邦和州隐私及数据安全事务的法律咨询,特别是遵守HIPAA的隐私、安全和数据泄露通知规则,以及各州的数据泄露通知法律。他还就广泛的医疗监管事项提供指导,包括遵守反回扣法规(Anti-Kickback Statute)和斯塔克法(Stark Law)等反欺诈和滥用法律。
(全文结束)


