大型语言模型在放射学中的网络安全风险Report: LLM Cybersecurity Risks in Radiology

环球医讯 / AI与医疗健康来源:www.miragenews.com美国 - 英语2025-05-14 21:00:00 - 阅读时长3分钟 - 1326字
研究人员在一份新报告中探讨了大型语言模型(LLMs)在医疗系统中的网络安全挑战,并强调了实施安全措施以防止这些模型被恶意使用的重要性。
大型语言模型放射学网络安全风险患者护理患者数据安全措施医疗保健放射科医生网络安全培训患者隐私
大型语言模型在放射学中的网络安全风险

伊利诺伊州橡树溪——在一份新的特别报告中,研究人员讨论了大型语言模型(LLMs)的网络安全挑战以及实施安全措施以防止LLMs在医疗系统中被恶意使用的重要性。该特别报告今天发表在《放射学:人工智能》杂志上,这是北美放射学会(RSNA)的一份期刊。

LLMs,如OpenAI的GPT-4和谷歌的Gemini,是一种能够理解和生成人类语言的人工智能(AI)。LLMs迅速成为各种医疗领域的强大工具,彻底改变了研究和临床实践。这些模型被用于多种任务,例如临床决策支持、患者数据分析、药物发现以及通过简化医学术语来增强医疗提供者与患者之间的沟通。越来越多的医疗提供者正在探索将先进的语言模型整合到日常工作中。

“虽然LLMs在医疗领域的整合仍处于早期阶段,但预计其使用将迅速扩展,”主要作者Tugba Akinci D'Antonoli博士说,她是瑞士巴塞尔大学医院诊断和介入神经放射科的神经放射学研究员。“这是一个越来越相关的话题,因此现在开始了解潜在漏洞变得至关重要。”

将LLMs整合到医疗实践中提供了显著的机会来改善患者护理,但这些机会并非没有风险。LLMs容易受到安全威胁,并且可以被恶意行为者利用来提取敏感的患者数据、操纵信息或使用数据投毒或推理攻击等技术改变结果。

AI固有的漏洞和威胁范围从向AI模型的训练数据中添加故意错误或恶意信息,到绕过旨在防止受限输出的模型内部安全协议,导致有害或不道德的响应。

非AI固有的漏洞则超出了模型本身,通常涉及LLMs部署的生态系统。攻击可能导致严重的数据泄露、数据操纵或丢失以及服务中断。在放射学中,攻击者可以操纵图像分析结果、访问敏感的患者数据,甚至安装任意软件。

作者警告说,在医疗领域,特别是在放射学中部署LLMs之前,必须仔细评估与之相关的网络安全风险,放射科医生在处理LLMs时应采取保护措施。

D'Antonoli博士说:“放射科医生可以采取多种措施来保护自己免受网络攻击。当然有一些众所周知的策略,比如使用强密码、启用多因素认证以及确保所有软件都更新了安全补丁。但由于我们处理的是敏感的患者数据,医疗保健领域的风险(以及安全要求)更高。”

为了安全地将LLMs整合到医疗保健中,机构必须确保安全的部署环境、强大的加密以及对模型交互的持续监控。通过在开发、训练和部署阶段实施强有力的安全措施并遵循最佳实践,利益相关者可以帮助最小化风险并保护患者隐私。

D'Antonoli博士指出,使用经过机构IT部门审核和批准的工具也很重要,任何用作这些工具输入的敏感信息都应匿名化。

“此外,持续的网络安全培训也很重要,”她说。“就像我们在放射学中定期进行辐射防护培训一样,医院应该实施常规的网络安全培训,以保持每个人的信息和准备。”

D'Antonoli博士表示,患者应该意识到这些风险,但不必过于担心。

“随着LLMs被整合到医院系统中,潜在的漏洞可能会增加,”她说。“尽管如此,我们并没有停滞不前。人们对网络安全的认识越来越高,监管也越来越严格,并且正在积极投资于网络安全基础设施。因此,虽然患者应该保持知情,但他们也可以放心,这些风险正在被认真对待,并且正在采取措施保护他们的数据。”


(全文结束)

大健康
大健康