近三分之一的医疗机构允许员工无正式限制地使用人工智能,半数机构允许经管理层批准的AI应用,仅16%明确禁止AI使用。
这些发现来自美国医疗信息与管理系统学会(HIMSS)的最新调查。该项目不仅聚焦AI领域——研究者旨在全面揭示医疗行业网络安全现状。但AI相关内容占据了报告的显著篇幅。
调查对象涵盖273位医疗网络安全专业人士:医院等服务机构占50%,供应商18%,咨询公司13%,政府机构8%,其他组织11%。受访者包括C级高管(50%)、非执行管理层(37%)和非管理职位人员(13%),均具有日常网络安全运营或相关活动责任。
以下是报告中AI部分的重点内容:
AI应用场景
37%受访者使用AI执行技术性任务(如支持系统和数据分析),35%用于诊断等临床服务,网络安全和行政任务各占34%。HIMSS指出:
"随着AI普及,未来将出现更多AI技术应用场景。"
AI管控措施
47%机构已建立审批流程,42%尚未建立,另有11%不确定。报告强调:
"审批流程作为前瞻性防护机制,可在采用前评估AI技术,降低未经授权或不当使用的可能性。同时监控AI使用属于反应性防护,通过持续监督识别潜在滥用、合规问题或安全风险。"
AI使用监控
仅31%机构实现跨系统设备的AI使用监控,52%未实施,17%不确定。HIMSS警示:
"缺乏监控将导致数据泄露等风险,需制定强有力的监控策略确保AI技术安全可控使用。"
可接受使用政策
42%机构制定了AI书面政策,48%未制定,10%不确定。报告指出:
"可接受使用政策为包括AI在内的技术安全使用设定明确指南,可作为独立政策或整合到组织整体政策中。"
未来网络安全担忧
75%受访者将数据隐私列为首要关切,其次为数据泄露(53%)和AI系统偏见(53%)。近半数担忧知识产权盗窃(47%)和缺乏透明度(47%),41%强调患者安全风险。HIMSS建议:
"需要建立强有力的防护措施、伦理框架和主动应对机制以管控风险。"
内部威胁与AI
5%报告存在疏忽性内部威胁,3%存在恶意行为,3%两者兼具。HIMSS指出:
"尽管比例看似较低,但多数机构尚未实施专门针对AI驱动内部威胁的监测机制,可能导致潜在风险未被发现。"
报告特别强调:
"日益依赖AI工具和系统为疏忽性与恶意性内部活动创造了新机会,这可能加剧对敏感数据和运营完整性的威胁。"
该调查覆盖HIMSS在北美、欧洲、英国、中东和亚太地区的网络。
【全文结束】


