医疗工作者正在使用其所属机构未批准的人工智能工具——这可能带来患者安全和数据隐私风险,沃尔特斯·克鲁维尔健康周四发布的调查显示。
该信息服务与软件公司的调查显示,超过40%的医护人员和行政人员表示知晓同事使用"影子AI"产品,近20%的受访者承认自己曾使用未经批准的AI工具。沃尔特斯·克鲁维尔首席医疗官彼得·博尼斯博士指出,这些未授权工具虽对个体工作者有用,但其所属医疗系统尚未评估产品风险或制定治理流程。"关键问题在于:这些工具的安全性如何?有效性如何?相关风险又是什么?"他表示,"用户自身是否充分认识到这些风险?"
当员工使用公司未授权的AI产品时,"影子AI"可能在各行业构成严重安全威胁。专家指出,由于其隐蔽特性,组织领导者和IT团队无法掌握工具使用情况,从而为网络攻击和数据泄露创造机会。
医疗组织的网络安全本就面临挑战,因为网络犯罪分子常以该领域为目标——其拥有高价值数据存储且医疗服务的容错率极低。博尼斯强调,医疗领域的风险更为严重:AI工具可能提供误导性或不准确信息,进而危害患者安全。调查显示,在500多名医院及医疗系统受访者中,约四分之一的医护人员将患者安全列为AI应用的首要关切。
"尽管初衷是让人在某个环节介入,但这些工具存在多种'失灵'可能,"博尼斯解释道,"而这些失误在诊疗点可能无法被及时拦截。"
尽管如此,鉴于人们寄望AI工具能帮助处理海量数据、加速行政工作并辅助医生记录诊疗过程及检索医学信息,该技术已成为医疗领域最具吸引力的创新之一。根据提供AI临床决策支持产品的沃尔特斯·克鲁维尔调查,部分员工正转向"影子AI"工具。
超50%的行政人员和45%的医护人员表示使用未授权产品是因为其能提升工作流程速度。此外,近40%的行政人员和27%的医护人员称因工具功能更优或缺乏获批替代品而采用"影子AI"。最后,超25%的医护人员和10%的行政人员将好奇心或实验目的列为使用原因。
许多医疗工作者并不清楚所属机构的AI政策。调查显示,行政人员参与AI政策制定的比例高于医护人员,但29%的医护人员表示了解机构主要AI政策,而行政人员该比例仅为17%。
博尼斯指出,许多医护人员可能接触过与AI文书工具相关的政策——这类工具通常记录医患对话并生成临床记录,已在医疗系统中广泛采用。"这或许解释了他们声称了解政策的原因,但其可能并未完全掌握所有属于AI政策范畴的内容,"他补充道。
【全文结束】


