Medica 2025:人工智能在揭示医疗保健中的性别偏见方面发挥作用Medica 2025: AI has role to play in highlighting gender biases in healthcare

环球医讯 / AI与医疗健康来源:www.yahoo.com德国 - 英语2026-01-10 00:03:20 - 阅读时长3分钟 - 1141字
在德国杜塞尔多夫举行的Medica 2025大会上,专家们深入探讨了人工智能在揭示医疗保健领域性别偏见中的双重作用。瑞士"女性大脑基金会"CEO查达博士指出,虽然苹果Siri等AI系统在处理女性健康问题时存在明显性别偏见,但这些缺陷恰恰帮助医疗界认识到数据中的潜在问题。研究显示,谷歌Gemma AI模型会淡化女性身心问题,而了解这些算法偏见有助于确定需要重点关注的性别特定医疗问题。同时,谢菲尔德NHS的克里姆利斯克教授强调,收集多样性数据面临隐私与实用性挑战,需在数据全面性与患者舒适度间取得平衡,这对改善女性医疗服务质量具有重要意义。
健康医疗保健女性健康人工智能性别偏见算法偏见数据偏见Medica2025SiriGemma临床实践
Medica 2025:人工智能在揭示医疗保健中的性别偏见方面发挥作用

专家们一直强调人工智能在揭示女性健康挑战方面的重要作用,同时研究警告了支撑该技术的算法所表现出的偏见。

在避免医疗保健中的性别偏见方面,输入到使用人工智能的分析系统中的数据仍然是一个关键问题。然而,关于解决医疗保健中性别不平等的小组讨论中,与会者表示,人工智能系统可能揭示的关于基础数据的偏见也可能证明是有益的。

瑞士非营利组织"女性大脑基金会"首席执行官安东内拉·桑图奇奥·查达博士强调了一篇近期论文,该论文揭示了人工智能驱动系统中的潜在偏见。查达在11月17日至20日在德国杜塞尔多夫举行的Medica大会上发表讲话。

该论文表明,苹果公司的自动语音识别(ASR)系统Siri在提供针对女性特定健康问题的指导方面表现出性别偏见和局限性。例如,当请求关于月经疼痛的指导时,Siri基于其底层深度学习模型输入的数据,根本无法提供任何有意义的指导。

然而,从某种意义上说,查达认为当前人工智能的缺陷是有益的。"正是多亏了人工智能,我们才开始更加意识到这些偏见。如果没有人工智能,我认为我们不会像今天这样意识到这一点,"她在小组讨论中解释道。

人工智能在各行业的数字化过程中普遍存在,并继续在医疗保健领域取得进展。GlobalData分析预测,到2027年,医疗保健中的人工智能将达到190亿美元的估值。

用于转录患者咨询的环境AI工具,如微软最近推出的Dragon Copilot和AI分诊系统,都旨在帮助医疗从业者并优化工作流程。

然而,研究强调,驱动AI系统的算法中的偏见可能会强化关于女性健康的歧视性结论,并导致做出有缺陷的护理决策。

例如,伦敦经济学院(LSE)护理政策与评估中心(CPEC)最近的研究发现,当谷歌的"Gemma" AI模型用于为社会工作者生成案例笔记摘要时,与男性相比,它淡化了女性的身体和心理健康问题。

查达补充说,通过了解数据分析中存在的偏见,可以对需要更多关注和敏感性的性别特定医疗保健问题进行评估。

小组成员还包括谢菲尔德健康和社会护理英国国家医疗服务体系(NHS)基金会信托创新、研究和开发副医疗主任海伦·克里姆利斯克教授,她强调,通过AI工具收集和综合的数据决定了可能(即使是无意中)带入临床实践的偏见。

然而,克里姆利斯克承认,从性别到种族等其他指标的多样性数据收集可能是一个挑战,需要包括哪些数据以及如何对数据进行分类以在医疗保健中进行有益应用是需要进一步仔细考虑的问题。

她说:"人们可能对披露自己的多样性数据感到不舒服。

"虽然我们希望在这方面获得最大量的数据,但我们必须承认,出于实际原因,我们可能不得不限制系统化收集的数据量。"

【全文结束】

大健康
大健康