25岁的卡米拉·安娜·西蒙内利(Camilla Anna Simonelli)是意大利帕维亚大学的生物医学工程硕士生。她最近来到卑尔根,与疫情中心合作撰写她的毕业论文。她的研究领域是人工智能和医疗保健,在论文中,她将评估可解释AI对医疗决策的影响。
什么是可解释AI?
可解释AI是一个旨在使复杂的AI模型更加透明和易于理解的领域。AI模型通常被称为“黑箱模型”,这意味着你无法理解为什么它会产生特定的输出。这在医疗决策中至关重要。
你能举个例子吗?
例如,当临床医生使用AI模型为特定患者提供诊断或治疗建议时,他们必须能够理解模型为何提出特定的诊断或治疗方案,以便进行评估。AI模型并不总是正确的,因此你需要知道它们错在哪里,西蒙内利解释道。
帮助决策
西蒙内利将要探索的AI模型目前尚未在医疗保健中使用,但预计未来某个时候会实施。作为她论文的一部分,西蒙内利将在帕维亚医院对161名住院医生进行调查,主要问题是AI模型如何帮助决定急诊科就诊的患者是否需要住院或回家。
“该模型使用了第一波疫情期间COVID患者的X光图像和检查数据进行训练。在疫情期间,临床医生需要决定哪些患者需要住院治疗,哪些可以回家,这一点尤为重要。资源有限,因此了解哪些患者可以回家非常关键。”
不是替代品
AI模型有可能在未来成为这种决策的重要工具,但不会替代人力资源。“这就是为什么可解释AI和构建用户友好且透明的AI系统如此重要。我们不想取代临床医生,而是通过帮助他们理解模型的思考过程来增强他们的能力,”西蒙内利指出。
在疫情中心,她将由埃斯佩兰萨·迪亚兹(Esperanza Diaz)、古托姆·阿伦达尔(Guttorm Alendal)、安娜·奥莱尼克(Anna Oleynik)和普拉布乔特·库尔(Prabhjot Kour)指导。“我将尝试通过采访流程中的利益相关者,如法律专家,为我的工作增加多学科的方法。通过这样做,我可以调查在真实医院中引入这种决策支持系统的本地影响,”西蒙内利总结道。
(全文结束)


