最近的一项调查突显了医疗领域的人工智能应用中性别刻板印象的持续存在。澳大利亚弗林德斯大学的研究人员审查了包括OpenAI的ChatGPT和Google的Gemini在内的知名生成式AI模型,通过向这些模型输入近50,000个关于医疗专业人员的查询来进行研究。
研究发现,这些AI模型主要将护士描绘为女性,无论经验或性格特征如何。这一发现表明了一个显著的偏见,因为护士被识别为女性的比例高达98%。此外,女性在关于外科医生和医生的叙述中也占据了显著比例,范围从50%到84%。这些数据可能反映了AI公司试图在其输出中减轻先前突出的社会偏见的努力。
根据布鲁塞尔自由大学麻醉学专家的研究,生成式AI仍然在强化性别刻板印象。在医疗专业人员表现出积极特质的情景中,他们更频繁地被归类为女性。相反,描述负面特质的词汇往往导致这些专业人员被识别为男性。
这些结果表明,AI工具可能在维持根深蒂固的性别行为和角色适宜性信念方面发挥作用。此外,AI中的偏见不仅影响医学领域的女性和代表性不足群体,还可能对患者护理构成风险,因为算法可能会基于种族和性别延续有缺陷的诊断刻板印象。解决这些偏见对于在医疗环境中负责任地整合AI至关重要。
了解和应对AI中的性别刻板印象:建议和见解
鉴于最近的研究揭示了AI中持续存在的性别刻板印象,特别是在医疗领域,探索识别、应对和减轻这些偏见的方法至关重要。以下是一些有助于个人和组织理解并对抗AI中性别偏见的宝贵建议、生活小技巧和有趣事实:
1. 了解AI中的偏见: 意识是应对AI偏见的第一步。研究和关注AI伦理的发展,特别是偏见如何影响不同领域,尤其是医疗。了解得越多,就越能做出明智的决策并倡导变革。
2. 多样化数据来源: 对于开发AI系统的开发者和组织,使用多样化的数据集可以显著减少偏见。考虑从各种人口统计数据中获取数据,以增强AI模型的代表性。
3. 实施定期审计: 定期审计AI系统,以识别潜在的偏见。定期审查AI应用的输出和决策过程,并在必要时重新校准算法,以促进公平和公正。
4. 倡导透明度: 在组织内部推动AI操作的透明度。了解AI系统如何做出决策可以揭示可能存在的偏见。鼓励开放讨论AI流程可以帮助挑战根深蒂固的刻板印象。
5. 涉及多学科团队: 在开发AI应用时,参与具有多样化背景的团队,包括伦理学家、社会科学家和医疗专业人员,以提供多种视角。这种多样性可以帮助识别单一团队可能忽视的潜在偏见。
6. 推动AI教育中的包容性: 鼓励教育机构在其课程中纳入AI伦理和偏见的主题。知情的一代将更加意识到AI的影响,并更有能力应对技术中的刻板印象。
7. 支持致力于道德AI的公司: 在选择AI供应商或应用程序时,优先考虑那些致力于道德AI实践并积极努力减少偏见的公司。寻找发布其努力以解决算法中性别差异的组织。
有趣事实: 您知道吗?一项研究发现,主要基于历史数据训练的AI模型会延续性别不平等。从有偏见的数据中学习的算法会延续同样的刻板印象,这意味着负责任的数据管理比以往任何时候都更为重要。
结论: AI中的性别刻板印象,尤其是在医疗领域,的影响不仅限于表象;它们会影响患者护理和职业动态。通过实施这些建议并持续对话AI和偏见,个人和组织可以为更公平的AI开发实践作出贡献。
(全文结束)


