医院的人工智能工具因准确性和偏见问题受到审查Hospitals' AI tools under scrutiny for accuracy and bias

环球医讯 / AI与医疗健康来源:medicalxpress.com美国 - 英语2025-01-09 02:00:00 - 阅读时长2分钟 - 604字
明尼苏达大学公共卫生学院的新研究表明,美国医院在日常任务中广泛使用人工智能工具,但评估系统偏见的程序不一致,可能导致患者体验不平等,尤其资源匮乏的医院可能面临更大挑战。
医院人工智能准确性偏见审查行政任务账单处理预约安排患者体验平等研究明尼苏达大学公共卫生学院AI工具预测模型住院患者高风险门诊优化评估财务资源技术专长数字鸿沟公平治疗患者安全内部评估现成产品环境记录员聊天机器人政策实践
医院的人工智能工具因准确性和偏见问题受到审查

明尼苏达大学公共卫生学院的新研究表明,美国医院如何使用人工智能(AI)执行日常任务正受到关注。这项研究特别指出,尽管AI工具在行政任务(如账单处理和预约安排)中的应用已经非常普遍,但评估这些系统是否存在偏见的程序却不够一致,这可能会导致患者的体验不平等。

研究团队分析了2425家参与2023年美国医院协会年度调查的医院的数据,该调查探讨了AI采用、使用和评估能力方面的差异。该研究发表在《Health Affairs》上,发现:

  • 大约65%的美国医院报告称使用了AI辅助预测模型,主要用于预测住院患者的健康轨迹、识别高风险门诊患者和优化预约安排。
  • 虽然有61%的医院对其预测模型进行了准确性评估,但只有44%的医院进行了类似的偏见评估。
  • 拥有更多财务资源和技术专长的医院更有可能拥有并评估AI模型,而资源匮乏的医院或依赖外部开发者的医院则较少进行此类评估。

“医院之间的数字鸿沟威胁着公平治疗和患者安全,”该研究的主要作者、公共卫生学院助理教授Paige Nong表示。“许多资金充足的医院可以设计适合自己患者的模型,并进行内部评估。相比之下,资源较少的医院则购买‘现成’的产品,这些产品可能无法反映当地患者的需求。”

未来的研究将探索医院环境中AI应用程序(如环境记录员和聊天机器人)的普及情况。研究团队还将与各种组织合作,分析它们如何准备、思考和使用AI,以期为政策和实践提供信息。


(全文结束)

大健康
大健康