女性和有色人种被警告AI发布的健康建议可能存在“不准确”Women and people of colour given 'inaccuracy' warning over AI-issued health advice

环球医讯 / AI与医疗健康来源:www.getsurrey.co.uk英国 - 英文2025-07-07 11:49:44 - 阅读时长2分钟 - 944字
随着人工智能在医疗领域的广泛应用,专家警告女性和有色人种需对AI提供的健康建议保持警惕,因其可能基于过时数据并存在偏见,无法提供精准的个性化医疗建议,尤其对于长期以男性和白人为研究主体的医学数据而言,这一问题尤为突出。
AI健康建议女性有色人种不准确数据过时研究偏见批判态度医疗系统信任度AI投资公共卫生保护
女性和有色人种被警告AI发布的健康建议可能存在“不准确”

尽管人工智能的重要性日益提升,且许多人正在利用它寻求建议,但某些人群被告知在接受其指导前应谨慎行事。女性和有色人种被特别提醒,在遵循聊天机器人所提供的健康建议时需格外小心,因为这些信息可能存在不准确性。

曾在STADA健康报告中研究英国及欧洲健康趋势的Magali Geens表示,AI系统并不总能为女性以及非白人群体提供正确的信息。她解释道,当人们向类似Chat GPT这样的AI系统寻求建议时,它会通过整合互联网上的研究和数据形成回复。然而,这些数据往往已经过时,并且大量关于健康问题的研究历史以来默认以男性为主要研究对象,白人群体也在研究中占据主导地位。

Geens指出:“如果(女性)使用Chat GPT输入症状,所获得的数据和信息可能并不适用于她们。”她补充说,要想从AI中获得最佳的健康建议,需要依赖更新、相关且消除偏见的工具。将AI当作搜索引擎来获取医疗建议,最终可能会导致不准确的信息或结果确认偏见。若要获得个性化的回应,用户需要提供更多信息,例如身高、体重、家族病史和性别——但许多AI用户对此并不了解。

用户必须对其从AI获得的信息保持批判态度,而Geens认为,“解决这一挑战还需要几年的时间”。制药公司STADA的首席执行官Peter Goldschmidt也补充道,AI可以提供“信息,但无法做出明智的判断”。

根据这项调查了来自22个国家的27,000人的报告,女性对医疗系统的信任度低于男性。仅有55%的女性表示信任医疗系统,而男性的比例则为61%。

该报告还强调,未来对AI的投资必须“与促进公平、可及性和心理健康福祉的政策齐头并进”。报告指出,欧洲和英国在医疗领域需要“支持个人努力,激励健康行为,不仅要现代化医疗系统,还要使其更具人性化”。

AI已开始应用于英国的医疗系统,英国卫生安全局(UKHSA)正在利用该技术检测食源性疾病暴发、了解患者体验并使公共卫生指南更加一致。UKHSA首席数据科学家Nick Watkins博士表示,AI可以“增强公共卫生保护”。

他解释说:“随着我们不断发展和完善这些系统,我们在拥抱创新的同时也确保对AI输出进行严格的验证。这种方法帮助我们充分利用AI潜力,同时维持国家级公共卫生机构应有的高标准。”


(全文结束)

大健康
大健康