2025年Medica展会:人工智能在揭示医疗健康领域性别偏见方面可发挥作用Medica 2025: AI has role to play in highlighting gender biases in healthcare - Medical Device Network

环球医讯 / AI与医疗健康来源:www.medicaldevice-network.com德国 - 英语2025-12-02 10:42:09 - 阅读时长3分钟 - 1200字
在2025年11月德国杜塞尔多夫Medica医疗展会上,专家们深入探讨了人工智能如何揭示医疗健康数据中的系统性性别偏见。女性大脑基金会首席执行官安东内拉·桑图乔内·查达博士指出,苹果Siri等AI系统因训练数据偏差无法有效处理痛经等女性健康问题,但这也促使人们意识到数据固有偏见;伦敦经济学院研究发现谷歌Gemma模型在生成社工案例摘要时弱化女性身心问题。谢菲尔德NHS基金会的海伦·克里姆利斯克教授强调,收集性别等多样性数据面临隐私挑战,需在数据充分性与实际可行性间取得平衡。专家认为AI虽可能强化歧视性结论,但能帮助识别和解决医疗健康领域的不平等,推动更公平的数据应用。
健康人工智能性别偏见Medica展会医疗健康女性健康算法偏见数据偏见性别平等
2025年Medica展会:人工智能在揭示医疗健康领域性别偏见方面可发挥作用

在揭示其输入数据中的系统性偏见方面,人工智能能够聚焦于那些医疗健康数据集偏见需要解决的领域。

人工智能在Medica展会关于解决医疗健康领域性别平等的小组讨论中扮演了关键角色。图片来源:罗斯·劳/GlobalData

专家们盛赞人工智能在照亮女性健康挑战方面的重要作用,同时研究警告称支撑该技术的算法存在偏见。

在避免医疗健康领域的性别偏见方面,输入到使用人工智能的分析系统中的数据仍然是一个关键关注点,但关于解决医疗健康领域性别不平等问题的小组讨论者表示,人工智能系统可能揭示的关于基础数据的偏见也可能带来益处。

瑞士非营利组织女性大脑基金会首席执行官安东内拉·桑图乔内·查达博士重点介绍了一篇近期论文,该论文揭示了人工智能驱动系统内部存在的潜在偏见。查达博士是在11月17日至20日于德国杜塞尔多夫举行的Medica展会上发表这一讲话的。

该论文表明,苹果公司的自动语音识别(ASR)系统Siri在提供与女性特定健康问题相关的指导方面表现出性别偏见和局限性。例如,当请求关于痛经的指导时,Siri基于其底层深度学习模型所输入的数据,根本无法提供任何有意义的指导。

然而,在某种意义上,查达博士认为当前人工智能的缺陷是有益的。“正是由于人工智能,我们才开始更加意识到这些偏见。没有人工智能,我相信我们今天不会像现在这样意识到它,”她在小组讨论中解释道。

人工智能在各行业的数字化过程中普遍存在,并继续在医疗健康领域取得进展。GlobalData分析预测,到2027年,医疗健康领域的人工智能将达到190亿美元的估值。

用于转录患者咨询的环境人工智能工具,如微软最近推出的Dragon Copilot和人工智能分诊系统,都旨在帮助从业者并优化工作流程。

然而,研究指出,驱动人工智能系统的算法中的偏见可能会强化关于女性健康的歧视性结论,并导致做出有缺陷的护理决策。

例如,伦敦经济学院护理政策与评估中心(CPEC)最近的一项研究发现,当谷歌的“Gemma”人工智能模型用于为社会工作者生成案例摘要时,与男性相比,它会弱化女性的身体和心理问题。

查达补充说,通过了解数据分析中存在的偏见,可以评估哪些性别特定的医疗健康问题需要更多关注和敏感性。

同样在小组讨论中,谢菲尔德健康与社会护理英国国家医疗服务体系(NHS)基金会信托的创新、研究和发展副医疗主任海伦·克里姆利斯克教授强调,通过人工智能工具收集和综合的数据决定了哪些偏见可能无意中被带入临床实践。

然而,克里姆利斯克承认,收集从性别到种族等其他指标的多样性数据可能是一个挑战,包括应包含哪些数据以及如何对其进行分类以在医疗健康中进行有益应用,这些都需要仔细考虑。

她说:“人们可能对披露其多样性数据感到不适。‘虽然我们希望在这一方面拥有最大量的数据,但我们必须承认,出于实际原因,我们可能不得不限制以系统化方式收集的数据量。’”

【全文结束】

大健康
大健康