最近,耶鲁医学院的一项研究揭示了有偏见的AI对临床结果的重大影响。该研究强调了在AI模型开发的每个阶段数据完整性问题如何损害医疗保健质量并加剧现有差异。
研究显示AI偏见可能在何处出现
该研究于11月7日发表,指出AI偏见可能在部署之前就已出现,最早可追溯到数据收集和模型评估阶段。偏见可以在AI管道的多个阶段出现,包括某些患者群体样本量不足。这种代表性不足导致性能不佳,使算法错误分类或低估未服务人群的需求,从而导致不准确的预测。
研究还指出,缺失的数据(如健康的社会决定因素或某些诊断代码)可能会扭曲AI模型的行为并导致偏见结果。
约翰·奥诺弗雷(John Onofrey),该研究的资深作者及耶鲁医学院的助理教授,强调AI中的偏见并不是一个新问题。凭借多年在机器学习和AI领域的经验,奥诺弗雷指出,当AI模型在有缺陷或不完整的数据上进行训练时,它们可能会无意中强化甚至加剧临床环境中的健康差异。
研究还强调,AI开发背后的人及其使用的方法将在塑造医疗AI的未来方面发挥关键作用。他们的决策可以要么强化,要么帮助减少健康不平等。
为解决AI偏见,研究建议采取多种解决方案,包括收集大型和多样化的数据集、使用统计去偏技术、彻底评估模型、提高模型的可解释性以及强制执行标准化的偏见报告和透明度。这些策略必须谨慎实施,明确了解它们如何防止对患者护理产生负面影响。
值得注意的是,解决医疗AI中的偏见与更广泛AI领域中的持续努力相一致。例如,华盛顿州立大学最近推出了一种深度学习AI模型,能够比人类更快、更准确地识别动植物组织中的疾病迹象。
虽然这一进展代表了AI的重要一步,但也突显了确保此类模型无偏见并能应对多样化患者需求的重要性。
(全文结束)


