一篇发表于《放射学:人工智能》(北美放射学会期刊)的特别报告指出,需高度重视医疗领域大语言模型(LLMs)应用带来的网络安全漏洞。随着OpenAI的GPT-4和谷歌的Gemini等模型逐渐融入临床工作流,研究人员警告称必须同步提升安全防护措施,以保护患者数据安全和医疗体系完整。
"尽管大语言模型在医疗领域的整合仍处于早期阶段,但其应用扩展速度正在加快。"瑞士巴塞尔大学医院神经放射科研究员图巴·阿金奇·D'安东尼奥利博士指出,"这个议题正变得愈发重要,我们必须立即着手理解潜在漏洞。"
当前大语言模型已在临床决策支持、药物研发和医患沟通等多个医学领域产生变革。但随着应用范围扩大,威胁也随之增长。报告揭示了人工智能固有漏洞与生态系统漏洞可能被利用的途径:攻击者可能通过数据投毒向训练集注入虚假或恶意数据,或通过推理攻击从模型响应中提取隐私信息。在放射学领域,此类攻击可能导致医学影像解读被篡改、患者隐私数据泄露,甚至恶意软件在系统内安装。
该专家强调医疗从业者需采取主动防护措施:"除使用强密码、启用多重身份验证和及时更新安全补丁等常规策略外,鉴于医疗数据的敏感性,还必须建立更高的安全标准。"报告建议采取多层防御策略,包括在安全环境中部署大语言模型、加密所有交互过程、持续监测系统活动、仅使用经机构审核的AI工具,以及在输入前对患者数据进行匿名化处理。
报告同时呼吁建立常态化网络安全培训机制:"就像放射科定期开展辐射防护培训一样,医疗机构应实施常规网络安全培训,保持全员的警惕性和应对能力。"尽管报告揭示了潜在风险,但作者强调其目的并非制造恐慌。"虽然LLMs集成到医院系统会扩大攻击面,但我们在防护意识、监管规范和基础设施投入方面都在持续进步。"
通过负责任的部署和持续的安全防护,大语言模型在提升医疗效率、优化诊断准确性和增强患者沟通等方面的优势将得以充分发挥。最终报告呼吁医疗体系在创新应用与安全防护间取得平衡,当前即应优先构建安全体系以预防未来可能出现的严重安全漏洞。
【全文结束】


