研究显示,跨性别者和非二元性别群体对人工智能(AI)表现出显著负面态度。美国密歇根大学社会计算学者Oliver L. Haimson团队通过对700余名美国居民的调查发现,包括跨性别男性、跨性别女性在内的性别少数群体,其AI态度负面评分显著高于顺性别群体。神经多样性或心理健康状况群体同样表现出更强烈的负面认知。
研究团队在《The Conversation》发表的报告指出,这项包含全国代表性样本的调研显示,当AI系统被强制应用于医疗和职场场景时,这些群体的抵触情绪可能源于算法歧视的历史经验——人脸识别系统误判跨性别者、执法AI导致黑人无辜逮捕、诊断AI限制残障人士获取医疗等案例,正在持续损害技术信任。
值得注意的是,尽管AI系统存在种族偏见(如招聘算法歧视、监控技术滥用),少数族裔特别是黑人群体反而展现出更积极态度。研究认为这可能反映弱势群体对技术潜力的务实期待。对于性别少数群体的负面态度,研究提出四项应对措施:建立可选退出机制、强化数据透明制度、纳入边缘群体参与设计、重新评估技术开发方向。
研究强调,当技术风险群体与技术怀疑群体高度重合时(如跨性别者、残障人士),AI设计者需要重新审视开发逻辑。研究者建议通过以下方式重建信任:在医疗和职场场景中提供无惩罚退出选项;建立数据来源与用途的透明机制;采用参与式设计方法,允许受影响社区直接参与系统开发决策。
【全文结束】


