在揭示其输入数据中的系统性偏见方面,人工智能能够聚焦于那些医疗健康数据集偏见需要解决的领域。
人工智能在Medica展会关于解决医疗健康领域性别平等的小组讨论中扮演了关键角色。图片来源:罗斯·劳/GlobalData
专家们盛赞人工智能在照亮女性健康挑战方面的重要作用,同时研究警告称支撑该技术的算法存在偏见。
在避免医疗健康领域的性别偏见方面,输入到使用人工智能的分析系统中的数据仍然是一个关键关注点,但关于解决医疗健康领域性别不平等问题的小组讨论者表示,人工智能系统可能揭示的关于基础数据的偏见也可能带来益处。
瑞士非营利组织女性大脑基金会首席执行官安东内拉·桑图乔内·查达博士重点介绍了一篇近期论文,该论文揭示了人工智能驱动系统内部存在的潜在偏见。查达博士是在11月17日至20日于德国杜塞尔多夫举行的Medica展会上发表这一讲话的。
该论文表明,苹果公司的自动语音识别(ASR)系统Siri在提供与女性特定健康问题相关的指导方面表现出性别偏见和局限性。例如,当请求关于痛经的指导时,Siri基于其底层深度学习模型所输入的数据,根本无法提供任何有意义的指导。
然而,在某种意义上,查达博士认为当前人工智能的缺陷是有益的。“正是由于人工智能,我们才开始更加意识到这些偏见。没有人工智能,我相信我们今天不会像现在这样意识到它,”她在小组讨论中解释道。
人工智能在各行业的数字化过程中普遍存在,并继续在医疗健康领域取得进展。GlobalData分析预测,到2027年,医疗健康领域的人工智能将达到190亿美元的估值。
用于转录患者咨询的环境人工智能工具,如微软最近推出的Dragon Copilot和人工智能分诊系统,都旨在帮助从业者并优化工作流程。
然而,研究指出,驱动人工智能系统的算法中的偏见可能会强化关于女性健康的歧视性结论,并导致做出有缺陷的护理决策。
例如,伦敦经济学院护理政策与评估中心(CPEC)最近的一项研究发现,当谷歌的“Gemma”人工智能模型用于为社会工作者生成案例摘要时,与男性相比,它会弱化女性的身体和心理问题。
查达补充说,通过了解数据分析中存在的偏见,可以评估哪些性别特定的医疗健康问题需要更多关注和敏感性。
同样在小组讨论中,谢菲尔德健康与社会护理英国国家医疗服务体系(NHS)基金会信托的创新、研究和发展副医疗主任海伦·克里姆利斯克教授强调,通过人工智能工具收集和综合的数据决定了哪些偏见可能无意中被带入临床实践。
然而,克里姆利斯克承认,收集从性别到种族等其他指标的多样性数据可能是一个挑战,包括应包含哪些数据以及如何对其进行分类以在医疗健康中进行有益应用,这些都需要仔细考虑。
她说:“人们可能对披露其多样性数据感到不适。‘虽然我们希望在这一方面拥有最大量的数据,但我们必须承认,出于实际原因,我们可能不得不限制以系统化方式收集的数据量。’”
【全文结束】


