跨性别、非二元性别和残障人士更倾向于对人工智能持负面态度,研究显示Transgender, nonbinary and disabled people more likely to view AI negatively,...

环球医讯 / AI与医疗健康来源:www.yahoo.com美国 - 英语2025-08-12 16:53:00 - 阅读时长2分钟 - 592字
美国密歇根大学社会计算学者Oliver L. Haimson团队通过对700余名美国居民的调查发现,跨性别者、非二元性别群体和残障人士普遍对人工智能持负面态度,特别是神经多样性或心理健康状况群体表现出更强烈的负面认知,研究揭示AI系统在身份识别、医疗诊断等方面存在的歧视性风险,并呼吁建立可选退出机制和数据透明制度。
跨性别者非二元性别群体残障人士人工智能负面态度心理健康算法歧视医疗场景技术信任应对措施
跨性别、非二元性别和残障人士更倾向于对人工智能持负面态度,研究显示

研究显示,跨性别者和非二元性别群体对人工智能(AI)表现出显著负面态度。美国密歇根大学社会计算学者Oliver L. Haimson团队通过对700余名美国居民的调查发现,包括跨性别男性、跨性别女性在内的性别少数群体,其AI态度负面评分显著高于顺性别群体。神经多样性或心理健康状况群体同样表现出更强烈的负面认知。

研究团队在《The Conversation》发表的报告指出,这项包含全国代表性样本的调研显示,当AI系统被强制应用于医疗和职场场景时,这些群体的抵触情绪可能源于算法歧视的历史经验——人脸识别系统误判跨性别者、执法AI导致黑人无辜逮捕、诊断AI限制残障人士获取医疗等案例,正在持续损害技术信任。

值得注意的是,尽管AI系统存在种族偏见(如招聘算法歧视、监控技术滥用),少数族裔特别是黑人群体反而展现出更积极态度。研究认为这可能反映弱势群体对技术潜力的务实期待。对于性别少数群体的负面态度,研究提出四项应对措施:建立可选退出机制、强化数据透明制度、纳入边缘群体参与设计、重新评估技术开发方向。

研究强调,当技术风险群体与技术怀疑群体高度重合时(如跨性别者、残障人士),AI设计者需要重新审视开发逻辑。研究者建议通过以下方式重建信任:在医疗和职场场景中提供无惩罚退出选项;建立数据来源与用途的透明机制;采用参与式设计方法,允许受影响社区直接参与系统开发决策。

【全文结束】

大健康
大健康