纽约,美国 —— 人工智能(AI)在医疗保健领域的应用正逐渐兴起,但准确性与患者安全问题仍是阻碍其发展的主要因素。
根据《美国国家医学图书馆》近期发表的一项研究,使用传统临床决策支持系统检测危险药物相互作用时,假阴性率低于测试的AI系统。
在关键临床任务中的表现不佳
Micromedex(一家药物信息临床支持技术公司)的执行副总裁兼总经理Sonika Mathur在其发表于《MedCityNews》的文章中写道,尽管AI在医疗保健领域的快速应用已在某些案例中取得成功,但最新研究结果表明,该技术在检测药物相互作用方面可能尚显不足。
将传统临床支持工具与AI进行比较后发现,AI仅识别出80种具有临床意义的药物相互作用,而传统工具则发现了280种药物相互作用,显示出可靠性上的显著差距。这一差异突显了依赖未经充分测试的AI模型进行关键医疗决策的风险。
另一方面,贝恩公司(Bain and Company)与KLAS Research在2024年的一项研究表明,监管、法律和准确性问题是阻碍AI普及的主要因素。尽管生成式AI仍被寄予厚望,但分析师指出,像ChatGPT这样的大型语言模型(LLMs)尚未达到足以支持临床决策的准确性。
专用AI而非通用型LLM
临床医生的参与不容妥协。Mathur指出,医疗专业人士应参与创建和测试AI工具,以确保其对所有患者的安全性。例如,当护士需要了解药物兼容性时,AI应提供多种安全解决方案,而不是单一选项。
数据来源与实时更新必须完全透明,PubMed拥有3000万条引文,这些内容必须经过精心策划。
如果没有这些防线,AI可能会继续提供错误或片面的指导,从而将患者置于风险之中。
Mathur强调,尽管AI在医疗保健领域展现了巨大潜力,但基于证据、经过临床验证的系统仍然是不可或缺的。未来的关键在于协作型AI——一种能够增强而非取代人类专业知识的AI,以确保患者安全和准确的决策。
(全文结束)


