尽管人们越来越习惯于由AI驱动的个人助理、客户服务聊天机器人甚至财务顾问,但在医疗保健方面,大多数人仍然希望有“人情味”。鉴于接受医疗保健是一种非常个人化的体验,患者更愿意从一个人那里获得医疗服务是可以理解的。然而,随着AI在提高医疗质量、效率和效果方面的巨大潜力,推动公众更广泛地接受人工智能驱动的医疗可能会为患者和提供者带来好处。那么,行业如何帮助公众更舒适地接受医疗AI呢?根据Lehigh大学和西雅图大学研究人员的一项新研究,让偏见的概念更加显而易见可以帮助实现这一目标。
这项发表在《计算机与人类行为》杂志上的研究发现,当患者更加意识到人类医疗决策中的偏见时,他们对AI的医疗建议更加接受。这种“偏见显性”或使人们对决策中的偏见更加警觉,被证明可以改变人们的看法。“这种对AI的接受度增加是因为偏见被视为人类的根本缺陷,”Lehigh商学院市场营销副教授Rebecca J. H. Wang说,“因此,当偏见的可能性被凸显时,AI的公正性——定义为相对于人类同行的公平性和可信度——得到了增强。”
研究包括六项实验,涉及近1,900名参与者,结果表明,当参与者被提醒人类偏见——例如,医疗保健提供者可能基于性别等特征对患者进行不同对待——他们对AI建议更加接受。参与者被呈现寻求建议或诊断的情景,如冠状动脉旁路手术或皮肤癌筛查。然后,他们被问及是否更倾向于由人类或计算机/AI助手提供建议。在呈现情景之前,一些参与者被展示了旨在增加偏见显性的屏幕。这些干预措施包括审查突出常见认知偏见的信息图、描述自己因偏见而受到负面影响的时间,包括50岁以上人群的年龄相关偏见和性别相关偏见。
结果显示:
- 当参与者意识到人类医疗中的潜在偏见时,他们认为AI提供了更高的“公正性”,即他们认为AI更加公平和可信。
- 尽管偏见显性并未消除人们普遍对人类医疗的偏好,但高偏见显性减少了对医疗AI的抵触,可能是因为偏见更容易与人类联系在一起。
- 在没有偏见显性的情况下,人类提供者的主观性通常被视为积极因素,但当偏见显性较高时,患者更重视AI的客观性。
作者强调,在AI普及的所有阶段,从开发到采用,都应时刻考虑人类偏见。AI系统的开发者应努力减少用于训练医疗AI的材料中的固有偏见——这是当前AI系统开发中的已知问题——并在用户遇到AI时提供关于人类偏见的背景信息。这样做可以帮助提供者充分利用AI在诊断、治疗建议和患者监测等应用中的日益增长的作用。预计到2029年,该行业每年将投资超过300亿美元用于AI医疗。
“通过解决患者对AI的担忧并突出人类判断的局限性,医疗保健提供者可以创建患者与新兴技术之间更加平衡和信任的关系,”Wang说。
(全文结束)


