随着AI技术深度融入日常生活,越来越多美国人开始向大型语言模型(LLM)寻求医疗诊断和建议——包括生死攸关的重要决策。
根据家庭输液治疗公司Drip Hydration委托调研机构Censuswide开展的2000人全国调查显示,39%受访者表示信任ChatGPT等AI工具辅助医疗决策。这一比例显著高于持中立态度的31%和明确不信任的30%。研究还发现,37%女性用户会通过AI准备就医问题,23%美国人使用AI规避医疗开支,20%用户将其作为医疗建议的"第二意见"。
值得关注的是,斯坦福大学生物医学数据科学副教授Roxana Daneshjou的研究显示,2022年26%的AI医疗回答包含"非专业医疗建议"警示,但2025年这一比例已骤降至不足1%。当用户上传医学影像时,仅1%的回答保留医疗建议警示,较三年前20%的水平大幅下滑。
研究揭示特定人群存在更高信任度:48%男性用户认为AI是可靠的医疗信息源,显著高于女性的31%;45-54岁中年群体信任度最高(52%),而年轻和年长群体则相对谨慎。但需警惕AI医疗建议存在严重风险——它们既无法进行实体检查,又可能基于错误判断提出危险建议。某研究证实,用户给AI低准确度的医疗建议评分竟与真实医生相当,且存在因错误建议采取有害医疗行为的倾向。
更严峻的是,AI系统不符合《健康保险可携性和责任法案》(HIPAA)合规要求,处理医学影像等敏感数据可能导致隐私泄露。专家警告,AI程序本身存在种族与性别偏见,可能加剧既有医疗不平等。尽管存在这些风险,便捷性、美国医疗体系的准入障碍,以及AI表现出来的"专家权威"形象,正推动越来越多美国人将其视为全天候在线的医疗顾问。
【全文结束】


