根据Drip Hydration委托人口宽咨询公司(Censuswide)对2000名美国人开展的新调查,39%受访者表示信任ChatGPT等大型语言模型(LLMs)辅助医疗决策。该比例超越了持中立态度(31%)和明确不信任(30%)的群体。
最新研究显示,包括OpenAI、Anthropic、谷歌等公司在内的AI模型已基本停止在医疗建议中添加"非专业医疗建议"的警示声明。2022年有26%的健康咨询回复包含此类警示,而2025年该比例已降至不足1%。当用户上传医学影像进行分析时,2022年约20%的回复含医疗建议警示,三年后该比例降至1%。
斯坦福大学生物医学数据科学系助理教授Roxana Daneshjou在接受《麻省理工科技评论》采访时表示:"媒体充斥着'AI超越医生'的报道,而警示声明能提醒公众这些模型并非医疗工具。"研究发现,聊天记录中医疗建议警示的缺失,使AI在症状分析、诊断建议和药品副作用解释等方面被误认为专业医疗人员。美国医疗体系中的不满情绪(31%女性用户借此准备医患沟通问题,23%试图规避医疗费用)成为推动AI医疗咨询的重要因素。
性别差异显著:48%男性认为AI医疗建议可靠,而女性仅31%持相同观点。45-54岁中年群体信任度最高(52%),其他年龄段则相对谨慎。值得注意的是,尽管AI存在种族性别偏见风险(研究显示其会复制医疗体系中的固有不公),仍有17%受访者认为AI能规避医疗歧视。
需特别警示的是:LLMs不符合《健康保险流通与责任法案》(HIPAA)标准,无法安全处理敏感健康数据。上传医学影像等行为可能因隐私泄露造成实质伤害。最新实验显示,即便AI医疗建议准确率较低,人们仍给予其与专业医生相当的信任评级,并存在遵循潜在有害建议的风险。当前AI医疗咨询的泛滥现象,正折射出美国医疗体系可及性难题与公众对AI认知的深层误区。
【全文结束】


