37%的受访者表示他们在技术支持和数据分析等技术任务中使用AI,35%的人表示在诊断等临床服务中使用AI,而网络安全和行政任务(各占34%)。HIMSS评论称:
“随着AI变得越来越普遍,预计未来将出现更多AI技术的应用案例。”
AI防护措施
近一半的受访者(47%)表示他们的组织有审批流程,而42%的人表示没有。另有11%的人不确定其组织内是否存在此类流程。作者指出:
“审批流程通过在采用前审核AI技术,起到主动防护的作用,减少了未经授权或不当使用的可能性。同时,监测AI使用情况则是一种反应性防护措施,通过持续监督AI活动来识别并解决潜在的误用、合规问题或安全风险。”
AI使用监控
31%的受访者表示他们的组织正在积极监控系统和设备中的AI使用情况,52%的人表示没有,17%的人表示不知道。HIMSS指出:
“缺乏监控会带来数据泄露等风险。需要强有力的监控策略以确保AI技术的安全和负责任使用。”
可接受使用政策
42%的受访者表示他们的医疗机构有书面的AI可接受使用政策(AUP),48%的人表示没有,10%的人表示不知道。HIMSS指出:
“可接受使用政策为技术(包括AI)的安全和负责任使用设定了明确的指导方针,可以作为独立政策或整合到一般政策中,具体取决于组织对AI的采纳情况。”
未来的网络安全关切涉及AI
75%的受访者将数据隐私列为首要关切,其次是数据泄露(53%)和AI系统的偏见(53%)。将近一半的人表达了对知识产权盗窃(47%)和缺乏透明度(47%)的担忧,41%的人强调了患者安全风险。HIMSS写道:
“这些发现强调了需要强有力的保护措施、伦理框架和主动措施来应对这些风险。”
内部威胁与AI
一小部分受访者报告了疏忽的内部威胁活动(5%)、恶意的内部威胁活动(3%),或两者兼有的内部威胁活动(3%)。HIMSS指出:
“尽管这些数字看似很小,但很可能许多组织尚未实施专门针对AI驱动的内部威胁的监控,导致潜在风险未被检测。”
放大对内部威胁的隐含呼吁,作者写道:
“对AI工具和系统的日益依赖带来了新的机会,既有可能是疏忽的,也可能是恶意的内部活动,这可能会放大对敏感数据和运营完整性的风险。”
(全文结束)


