医院使用人工智能工具的准确性与偏见分析Hospital use of AI tools analyzed for accuracy and biases

环球医讯 / AI与医疗健康来源:twin-cities.umn.edu美国 - 英语2025-01-09 01:00:00 - 阅读时长2分钟 - 623字
来自明尼苏达大学公共卫生学院的新研究表明,美国医院广泛使用人工智能进行日常任务,但评估系统中偏见的程序不一致,可能导致患者体验不平等;资源充足的医院更可能设计和评估自己的AI模型,而资源匮乏的医院则依赖外部产品,这加剧了数字鸿沟。
医院人工智能AI偏见患者体验平等预测模型财务资源技术专长数字鸿沟公平治疗患者安全内部评估外部开发者现成产品环境记录员聊天机器人政策实践
医院使用人工智能工具的准确性与偏见分析

新研究表明,美国医院正在如何使用人工智能(AI)来执行日常任务。明尼苏达大学公共卫生学院的研究揭示,尽管AI工具在行政任务如账单和预约安排中广泛应用,但评估系统中是否存在偏见的程序并不一致,这可能导致患者体验不平等。

研究团队分析了2,425家医院在2023年美国医院协会年度调查中的回复,该调查探讨了AI采用、使用和评估能力方面的差异。这项发表在《Health Affairs》上的研究发现:

  • 约65%的美国医院报告使用AI辅助预测模型,最常见的是用于预测住院患者的健康轨迹、识别高风险门诊患者和优化预约安排。
  • 虽然61%的医院对其预测模型进行了准确性评估,但只有44%的医院进行了类似的偏见评估。
  • 拥有更多财务资源和技术专长的医院更有可能拥有并评估AI模型,而资源不足的医院或使用外部开发者的医院则较少这样做。

“医院之间的数字鸿沟日益扩大,威胁到公平治疗和患者安全。”主要作者、公共卫生学院助理教授佩奇·农(Paige Nong)表示,“许多资金充足的医院可以设计适合自己患者的模型,并进行内部评估。相比之下,资源较少的医院则购买这些‘现成’的产品,这些产品可能无法反映当地患者的需求。”

未来的研究将探索医院环境中AI应用(如环境记录员和聊天机器人)的普及情况。研究团队还将与多样化组织合作,分析它们如何准备、思考和使用AI,以期为政策和实践提供信息。

该研究的资金由美国卫生与公众服务部的技术政策助理部长办公室提供。


(全文结束)

大健康
大健康