近40%美国人信任AI聊天机器人提供的医疗建议Almost 40 Percent of Americans Trust Medical Advice From AI Chatbots

环球医讯 / AI与医疗健康来源:www.rollingstone.com美国 - 英语2025-08-05 06:41:34 - 阅读时长2分钟 - 814字
根据美国人口宽咨询公司为Drip Hydration进行的调查,39%受访者信任ChatGPT等AI工具辅助医疗决策,研究显示AI医疗建议警示声明从2022年的26%骤降至2025年的1%,斯坦福学者指出AI程序存在种族性别偏见复制风险,不同性别与年龄段人群对AI医疗建议的信任度差异显著,此类AI应用面临HIPAA合规性及隐私泄露隐患。
AI聊天机器人医疗建议美国人信任度医疗建议警示性别差异健康数据隐私美国医疗体系公众认知误区
近40%美国人信任AI聊天机器人提供的医疗建议

根据Drip Hydration委托人口宽咨询公司(Censuswide)对2000名美国人开展的新调查,39%受访者表示信任ChatGPT等大型语言模型(LLMs)辅助医疗决策。该比例超越了持中立态度(31%)和明确不信任(30%)的群体。

最新研究显示,包括OpenAI、Anthropic、谷歌等公司在内的AI模型已基本停止在医疗建议中添加"非专业医疗建议"的警示声明。2022年有26%的健康咨询回复包含此类警示,而2025年该比例已降至不足1%。当用户上传医学影像进行分析时,2022年约20%的回复含医疗建议警示,三年后该比例降至1%。

斯坦福大学生物医学数据科学系助理教授Roxana Daneshjou在接受《麻省理工科技评论》采访时表示:"媒体充斥着'AI超越医生'的报道,而警示声明能提醒公众这些模型并非医疗工具。"研究发现,聊天记录中医疗建议警示的缺失,使AI在症状分析、诊断建议和药品副作用解释等方面被误认为专业医疗人员。美国医疗体系中的不满情绪(31%女性用户借此准备医患沟通问题,23%试图规避医疗费用)成为推动AI医疗咨询的重要因素。

性别差异显著:48%男性认为AI医疗建议可靠,而女性仅31%持相同观点。45-54岁中年群体信任度最高(52%),其他年龄段则相对谨慎。值得注意的是,尽管AI存在种族性别偏见风险(研究显示其会复制医疗体系中的固有不公),仍有17%受访者认为AI能规避医疗歧视。

需特别警示的是:LLMs不符合《健康保险流通与责任法案》(HIPAA)标准,无法安全处理敏感健康数据。上传医学影像等行为可能因隐私泄露造成实质伤害。最新实验显示,即便AI医疗建议准确率较低,人们仍给予其与专业医生相当的信任评级,并存在遵循潜在有害建议的风险。当前AI医疗咨询的泛滥现象,正折射出美国医疗体系可及性难题与公众对AI认知的深层误区。

【全文结束】

大健康
大健康