人工智能(AI)热潮已经到来,而且短期内没有放缓的迹象。目前市场规模约为280亿美元,预计到2030年,医疗AI市场将超过1800亿美元。虽然新技术为我们行业带来了令人兴奋的可能性,但网络安全领域的专业人士知道,这些技术也引入了漏洞和风险。随着AI的成熟,医疗保健组织需要了解这些关键的网络安全细微差别,以便安全地使用AI。
了解黑客攻击方法
首先,我们来了解一下恶意行为者可以如何破坏AI系统并访问数据。这些方法包括:
- 注入提示:这是一种常见的攻击方法,通常针对像ChatGPT这样的生成式AI系统。注入提示涉及将代码注入提示中,或开发人员在后端创建的内容,从而“欺骗”AI并改变其运行方式。例如,假设一家医院在其网站上有一个症状检查聊天机器人,患者输入了中风的症状。一个恶意行为者可以向系统输入提示,使聊天机器人告诉患者输入的症状表明是普通感冒。
- 推理:在推理攻击中,威胁行为者利用机器学习(ML)模型的输出来推断(即“推理”)他人的敏感信息。利用这些数据,恶意行为者可以推断出有关个人的信息(称为属性推理攻击),或者该个人的数据是否被用于训练该ML模型(称为成员推理攻击)。
- 提取:顾名思义,这种攻击方法中,黑客会提取用于训练ML模型的数据。训练数据可能包含个人身份信息,数据越具体,对威胁行为者的价值就越高。
- 投毒:当网络威胁向AI模型注入不良训练数据以操纵其决策和输出时,就会发生投毒。以医院的业务办公室为例,假设他们使用AI程序在提交给付款方之前标记索赔问题。如果恶意行为者对训练数据进行了投毒,该程序可能不会标记出需要更正的机会。
这些方法突显了为什么医疗保健是网络犯罪分子的主要目标:只需几个数据点,他们就可以造成巨大损害。
保护您的系统
那么,利用AI的医疗保健组织可以做些什么来维护其安全态势呢?总体而言,遵守基本的安全原则至关重要,因为每个新解决方案的实施都代表了新的风险——无论是AI还是其他方面。采用零信任原则并应用最小权限访问只是确保仅选择的用户按需访问应用程序并且这些用户仅限于与其角色相关的功能的几种方式。从AI的角度来看,确保对训练数据进行动态审查和评估也很重要。不仅需要确保训练数据的准确性,还需要确保其安全性,并确保AI系统以安全的方式访问这些数据。
此外,组织应进行持续的数据安全分析,并对其AI系统进行动态网络安全风险评估,以了解数据的位置及其流动方式,从而更好地保护数据。尽管在医疗保健行业中未充分利用,但进攻性网络安全实践也可以帮助发现改进机会。例如,通过进行渗透测试(也称为“渗透测试”),组织可以评估恶意行为者在突破AI系统后可能造成的损害程度。同样,通过“红队”,内部小组可以模拟攻击,不仅测试AI的安全态势,还测试负责检测和响应威胁的团队成员的警惕性。
最后,医疗保健组织应关注随着AI技术的发展而演变的行业标准。例如,美国国家标准与技术研究院(NIST)已为各行各业的组织创建了许多网络安全标准和框架,并发布了AI风险管理框架。组织还应随着补丁的发布更新AI系统,以修复已知漏洞。网络安全就像一场猫捉老鼠的游戏。随着技术专家开发和公布新的保护措施,恶意行为者也会想出绕过这些保护措施的方法,这个循环不断继续。
领先于威胁
归根结底,AI解决方案只是组织技术组合的一部分,增加了恶意行为者实现其目标的新途径。黑客不在乎您使用什么软件或硬件,他们只想突破系统并访问数据。随着AI在医疗保健领域的扩展,Altera Digital Health将继续与客户合作,随着最佳实践的演变,实施网络安全最佳实践。我们的使命是提升医疗保健水平,这包括保护患者和提供者每天依赖的数据。
(全文结束)


