人工智能偏见影响招聘与医疗决策
俄克拉荷马大学
ChatGPT、DeepSeek、谷歌Gemini和微软Copilot等生成式人工智能工具正在迅速改变多个行业。然而,随着这些大型语言模型成本降低和广泛应用,其内置偏见可能导致决策失真并削弱公众信任。
俄克拉荷马大学Price商学院副教授Naveen Kumar共同撰写的研究强调,迫切需要通过开发和部署道德可解释的人工智能系统来应对偏见问题。这包括确保公平透明的算法设计规范,以及减少语言模型应用中的刻板印象和歧视行为。
"随着国际企业DeepSeek和阿里巴巴推出免费或低价平台,全球人工智能价格战即将展开,"Kumar表示,"当成本成为首要考量时,伦理问题和反偏见监管是否会受到影响?还是国际企业的参与会加速监管进程?我们期待看到积极方向的进展。"
根据研究中引用的调查数据,近三分之一受访者认为曾因偏见算法失去金融或就业机会。Kumar指出,当前AI系统虽已清除显性偏见,但隐性偏见依然存在。随着语言模型智能化程度提升,隐性偏见的检测将更具挑战性,这凸显了建立道德规范的重要性。
"当语言模型深度参与金融、营销、人力资源和医疗等领域时,必须确保其与人类价值观一致。否则可能导致歧视性结果,"他强调,"医疗领域的偏见模型可能引发患者护理不公平;招聘算法可能偏好特定性别或种族;广告模型可能强化刻板印象。"
在推进可解释性人工智能建设的同时,Kumar与研究团队呼吁学界开发主动监测和缓解语言模型偏见的技术解决方案。建议采用平衡策略,在保障应用效率的同时实现公平与透明。
"行业高速发展带来利益相关方的矛盾,需平衡开发者、企业高管、伦理学家和监管者的需求,"他表示,"跨业务领域和区域法规找到最佳平衡点,将是成功关键。"
关于该研究
《生成式人工智能偏见治理:信息管理领域的挑战与研究机遇》发表于《信息与管理》期刊,DOI:10.1016/j.im.2025.104103。Kumar作为俄克拉荷马大学管理信息系统副教授,与华盛顿大学Bothell分校的Wei Xiahua及佐治亚理工学院/香港浸会大学Zhang Han共同完成该研究。
【全文结束】