女性和有色人种被警告勿依赖AI获取健康建议Women and people of colour issued warning over using AI for health advice

环球医讯 / AI与医疗健康来源:www.mirror.co.uk英国 - 英文2025-07-11 05:56:29 - 阅读时长3分钟 - 1108字
研究表明,女性和有色人种在使用AI获取健康建议时可能面临信息不准确或过时的风险,专家呼吁审慎对待,并强调现有AI工具存在性别和种族偏见问题。
女性有色人种AI健康建议医疗系统数据过时研究偏见准确信息专业判断公共卫生保护
女性和有色人种被警告勿依赖AI获取健康建议

新数据显示,女性对医疗系统的信任度低于男性。随着人工智能的日益普及,人们开始转向这一技术寻求医疗帮助,但有专家警告称,女性和有色人种应谨慎对待来自聊天机器人的健康建议。

STADA健康报告2025(聚焦英国和欧洲健康趋势)的负责人玛嘎丽·吉恩斯(Magali Geens)解释说,AI并不总是能够为女性以及非白人群体提供准确的健康建议。

当我们向像Chat GPT这样的AI系统寻求指导时,它会从互联网上整合研究和数据以生成回应。然而,这些现有的知识往往已经过时。历史上,大量健康问题的研究以男性为中心,他们通常是研究中的默认对象。此外,在互联网上的可用研究中,高加索人(白人)占据了过多比例,而这正是Chat GPT用来形成建议的基础。

吉恩斯指出:“如果(女性)使用Chat GPT并输入症状,得到的数据和信息可能并不适合她们。”她表示,若想在健康建议方面充分利用AI,需要使用能够实时更新、相关性强且消除偏见的工具。吉恩斯以专门针对心理健康问题设计的聊天机器人作为良好范例。

她还提醒道,我们不应盲目接受聊天机器人的建议。将AI用作搜索引擎来询问医疗建议,可能会导致用户获得不准确的信息或带有偏见的结果。要获得量身定制的回复,用户需提供更多细节,例如身高、体重、家族病史和性别——但许多AI用户对此并不了解。

尽管AI可以为偏远地区的居民提供获取健康建议的便利,但用户必须对其呈现的信息保持批判态度。吉恩斯告诉我们:“这是一个需要几年时间才能解决的挑战。”

制药公司STADA的首席执行官彼得·戈德施密特(Peter Goldschmidt)补充道,AI可以提供“信息,但无法提供专业判断”。

根据对来自22个国家的27,000人进行的STADA调查,女性对医疗系统的信任度低于男性:55%的女性信任医疗系统,而男性则为61%。

AI的流行度持续上升,并在教育、科学乃至医疗领域发挥着作用。调查显示,39%的受访者表示他们会考虑通过AI进行医疗咨询,而不是去看医生,大多数人认为便利性和可及性是主要原因。

这项技术已经在英国的医疗系统中投入使用。英国卫生安全局(UK Health Security Agency,简称UKHSA)正在利用AI理解患者体验、检测食源性疾病爆发,并使公共卫生指导更加一致。

UKHSA首席数据科学家尼克·沃特金斯博士(Dr Nick Watkins)表示,AI可以“加强公共卫生保护”。他补充道:“随着我们继续开发和完善这些系统,我们会在拥抱创新的同时,确保对AI输出结果进行严格验证。这种方法有助于我们在维持国家级公共卫生机构高标准的同时,充分发挥AI的潜力。”


(全文结束)

大健康
大健康