人工智能在医疗保健中的机遇与挑战Promises and Pitfalls of AI in Health Care | AJMC

环球医讯 / AI与医疗健康来源:www.ajmc.com美国 - 英语2025-10-29 03:26:20 - 阅读时长7分钟 - 3075字
人工智能正以前所未有的速度重塑医疗保健领域,从影像诊断到患者风险预测展现出提升效率、减轻医生负担和改善医疗可及性的巨大潜力,尤其在资源匮乏地区;然而算法偏见、透明度缺失和人工监督不足等问题引发对公平性和伦理的深刻担忧,需要医疗界、技术专家和监管机构通力合作,在技术创新与人文关怀之间找到平衡点,通过多样化数据集、定期偏见测试和明确责任划分确保AI真正服务于患者利益和医疗质量提升,同时保留医疗核心的人文温度与临床判断。
人工智能医疗保健机遇挑战诊断可及性偏见透明度人工监督负责任创新临床医生患者护理公平性
人工智能在医疗保健中的机遇与挑战

作者:Maggie L. Shaw(Maggie L. Shaw)

事实核查:Christina Mattina(Christina Mattina)

核心要点

  • 人工智能正在通过改善诊断、减轻临床医生工作负担和增强医疗可及性(特别是在资源有限的环境中)来革新医疗保健。
  • 挑战包括人工智能偏见、透明度问题以及需要人工监督,这要求在人工智能部署中建立保障措施和问责机制。
  • 解决人工智能偏见需要多样化的数据集、定期的偏见测试以及临床医生和数据科学家之间的合作,以确保公平的结果。
  • 负责任的人工智能创新需要持续验证、清晰沟通,以及在技术卓越与伦理责任之间取得平衡。

人工智能通过处理海量数据、增强决策能力和解决偏见问题来改变医疗保健,但在透明度和人工监督方面仍存在需求。

人工智能的快速整合正在重塑医疗保健格局,从放射学和诊断的早期应用发展到成为跨学科的综合工具。过去10年甚至被称为"变革性的"。

目前,人工智能正在通过增强图像分析、预测患者风险以及解决困扰临床医生和其他医疗保健提供者的大量行政任务和文档疲劳来产生可衡量的影响。人工智能还有潜力通过加快护理流程,改善服务不足或资源受限地区的护理可及性、公平性和质量。然而,进展很少是直截了当的。

人工智能广泛采用的道路充满重大关切和障碍——例如,偏见、临床医生贡献被掩盖以及效率错误——这使得有必要为决策建立保障措施、建立问责制、保持医疗保健的人文方面并验证结果。临床医生、患者和人工智能之间这种不断发展的关系既对医学进步有着巨大的前景,也对维持和保护护理的伦理和人文基础有着深切的担忧。

人工智能正在发挥作用和遇到瓶颈的领域

人工智能系统擅长处理大量数据并帮助解锁关键见解,从而显著改善预测模型,实现更好的患者目标定位,提高文档完整性,减轻职业倦怠并降低成本。与《美国管理医疗杂志》®(AJMC®)交谈的Sanjay Doddamani医学博士、工商管理硕士(前CMMI高级顾问,Guidehealth创始人兼首席执行官)还提到了人工智能通过以下方式做出更快、数据驱动决策的能力:

  • 处理非结构化数据并从患者病历、付费索赔以及入院、出院和转院信息流中解锁见解
  • 整合面向患者的语音和大型语言模型,以扩展患者外展服务,填补质量差距并扩展护理团队
  • 通过环境笔记捕捉患者互动
  • 识别高摩擦工作流程
  • 测量在实际临床分钟中节省的时间,而非理论收益

"人工智能几乎是专门为此类负担而设计的。关键是针对性部署,"他表示,"设计得当的人工智能应该为临床医生节省时间,而不是占用更多时间。"

然而,由于用户接受度、用途不匹配、高成本以及医疗保健行业自然倾向于谨慎行事等因素,采用速度仍然缓慢。医疗AI公司Dyania Health的创始人兼首席执行官Eirini Schlosser表示,临床医生需要确信他们使用的工具准确可靠,甚至要求详细的分解。

Schlosser解释说:"对于电子病历中导致特定结论的部分,我们会对每一个答案都进行自我解释。"她解释说,医疗护理的严格性通常几乎没有多余时间来解决问题或创新。然而,另一方面,这为机会和进步提供了可能。"我们看到医生对有机会研究他们一直想检查但从未有时间和资源投入的患者群体的见解而欣喜若狂。"

透明度呼吁

人们也在大力呼吁提高透明度,包括采取保障措施以防止过早的临床替代。专家一致认为,目前人工智能应该为决策提供信息,而不是直接做出决策。

"在决策性质关键的情况下,我们绝对确保采用人在环中的实施方式;例如,在护理管理中,AI解决方案帮助我们识别最需要护理的个体,"UPMC Health Plan的AI副总裁Reuben Daniel表示,"在提供针对性护理的下一步之前,实际场景由医疗专业人员和临床医生进行评估。"

部署的关键保障措施包括与临床医生进行前瞻性、并排验证以及保持透明的模型来源。明确的责任划分是必要的,确保临床医生仍然是最终检查。

"信任取决于谦逊,使用人工智能支持临床智慧而不是取代它,"Doddamani说。

致几个国家最大医疗保险优势保险公司的信件也在呼吁同样的要求。在康涅狄格州参议员Richard Blumenthal (D)牵头的调查中,UnitedHealthGroup、Humana和CVS Health被要求澄清他们使用哪些类型的人工智能来做出关于患者护理和覆盖范围的决策,以及自去年以来实施的"防止AI工具'过度影响'人类临床医生工作"的政策。

对开发人员而言,严格遵守这些界限也至关重要。Schlosser解释说,Dyania Health使用的Synapsis AI系统并不声称是医疗设备,仅用于支持临床决策。"必须为任何AI模型设置保障措施,首先训练数据和任务必须紧密模仿模型将被要求完成的任务,"她说,"帮助医生更快、更自信地做出数据驱动的决策。"

解决偏见的呼吁

为了解决人工智能偏见并确保公平结果,医疗保健界必须积极应对来自倾斜数据的问题。人工智能在医疗保健中的使用存在许多与偏见相关的担忧。人工智能相关偏见的一个定义是"对不同患者群体生成预测时存在的任何系统性和/或不公平差异,可能导致不同的护理交付。"

基于此,由于输入的数据,偏见可能会被无意中编程到人工智能系统中,从而对患者护理产生负面影响。健康记录、患者人口统计信息以及优先考虑一个种族/民族群体中更健康的患者(这在几个美国医疗系统中已经发生过)都已被牵涉其中。

研究还假设,某些群体由于其医疗保健使用记录较少,因此风险预测较低,从而加剧了长期以来显而易见的医疗保健不平等,专家指出,"这既是一个社会问题,也是一个算法问题。"

哈佛大学研究的一个特别例子是弗雷明汉心脏研究心血管风险评分,该评分在非裔美国人和高加索患者之间产生了不平衡的结果。另一个例子是使用种族偏见的算法来预测医疗保健成本与疾病,知道当根据给定的风险评分进行评估时,黑人患者比白人患者病情更重。未考虑健康的社会决定因素也已被牵涉,特别是解释收入水平、教育和环境的数据。

Schlosser指出:"为了让人工智能更加公平,医疗保健界需要使用更多样化和完整的数据集,定期测试偏见,并在过程中包括来自不同领域的专家,如临床医生和数据科学家。""公平不应是事后考虑。它应该被融入医疗保健人工智能设计、测试和应用的每一步。"

Doddamani表示同意:"数据广度有所改善,但如果未能测量,偏见仍然存在。公平的人工智能需要刻意监控,而不是对大数据集的被动信心。"

结论

负责任创新的赌注从未如此之高。人工智能已经通过提高效率、减轻临床医生负担以及改善如何识别需要及时干预的患者来证明其价值,但总有改进的空间。进步必须谨慎推进。围绕算法偏见、人工监督丧失和透明度差距的担忧清楚地表明,信任是赢得的——而不是假设的。有了保障措施、持续验证以及关于AI模型如何得出结论的清晰沟通,信心可以增长。

未来的平衡将需要尊重方程式的两面——技术卓越和伦理责任。当经过深思熟虑的对齐时,人工智能和人类专业知识可以合作,确保创新改善结果,同时保留医疗保健核心的同情心和临床判断。

【全文结束】

大健康
大健康