人工智能在医疗保健领域的前景与临床决策支持中的隐患AI in healthcare: Promise and pitfalls in clinical decision support

环球医讯 / AI与医疗健康来源:news.outsourceaccelerator.com美国 - 英文2025-07-11 17:18:22 - 阅读时长2分钟 - 820字
本文探讨了人工智能在医疗保健领域,尤其是在临床决策支持系统中的应用现状。研究显示,相较于传统系统,AI在检测危险药物相互作用时存在较高假阴性率,且其准确性和安全性仍需进一步提升,强调只有经过临床验证的专用AI系统才能确保患者安全。
人工智能医疗保健临床决策支持药物相互作用准确性患者安全传统工具临床医生参与协作型AI
人工智能在医疗保健领域的前景与临床决策支持中的隐患

纽约,美国 —— 人工智能(AI)在医疗保健领域的应用正逐渐兴起,但准确性与患者安全问题仍是阻碍其发展的主要因素。

根据《美国国家医学图书馆》近期发表的一项研究,使用传统临床决策支持系统检测危险药物相互作用时,假阴性率低于测试的AI系统。

在关键临床任务中的表现不佳

Micromedex(一家药物信息临床支持技术公司)的执行副总裁兼总经理Sonika Mathur在其发表于《MedCityNews》的文章中写道,尽管AI在医疗保健领域的快速应用已在某些案例中取得成功,但最新研究结果表明,该技术在检测药物相互作用方面可能尚显不足。

将传统临床支持工具与AI进行比较后发现,AI仅识别出80种具有临床意义的药物相互作用,而传统工具则发现了280种药物相互作用,显示出可靠性上的显著差距。这一差异突显了依赖未经充分测试的AI模型进行关键医疗决策的风险。

另一方面,贝恩公司(Bain and Company)与KLAS Research在2024年的一项研究表明,监管、法律和准确性问题是阻碍AI普及的主要因素。尽管生成式AI仍被寄予厚望,但分析师指出,像ChatGPT这样的大型语言模型(LLMs)尚未达到足以支持临床决策的准确性。

专用AI而非通用型LLM

临床医生的参与不容妥协。Mathur指出,医疗专业人士应参与创建和测试AI工具,以确保其对所有患者的安全性。例如,当护士需要了解药物兼容性时,AI应提供多种安全解决方案,而不是单一选项。

数据来源与实时更新必须完全透明,PubMed拥有3000万条引文,这些内容必须经过精心策划。

如果没有这些防线,AI可能会继续提供错误或片面的指导,从而将患者置于风险之中。

Mathur强调,尽管AI在医疗保健领域展现了巨大潜力,但基于证据、经过临床验证的系统仍然是不可或缺的。未来的关键在于协作型AI——一种能够增强而非取代人类专业知识的AI,以确保患者安全和准确的决策。


(全文结束)

大健康
大健康