近四成美国人信任AI聊天机器人的医疗建议Almost 40 Percent of Americans Trust Medical Advice From AI Chatbots

环球医讯 / AI与医疗健康来源:www.yahoo.com美国 - 英语2025-08-05 18:43:12 - 阅读时长2分钟 - 751字
一项针对2000名美国人的调查显示,39%的受访者表示信任ChatGPT等AI工具的医疗决策建议,该比例高于持中立态度(31%)和不信任者(30%)。研究发现AI医疗建议缺乏必要警示,用户甚至可能因AI误导采取危险行为,且存在加剧医疗不平等的风险,同时揭示美国民众对医疗体系的不满促使AI医疗咨询需求上升。
美国人AI聊天机器人医疗建议信任度医疗决策医疗开支非专业建议风险隐私泄露医疗不平等
近四成美国人信任AI聊天机器人的医疗建议

随着AI技术深度融入日常生活,越来越多美国人开始向大型语言模型(LLM)寻求医疗诊断和建议——包括生死攸关的重要决策。

根据家庭输液治疗公司Drip Hydration委托调研机构Censuswide开展的2000人全国调查显示,39%受访者表示信任ChatGPT等AI工具辅助医疗决策。这一比例显著高于持中立态度的31%和明确不信任的30%。研究还发现,37%女性用户会通过AI准备就医问题,23%美国人使用AI规避医疗开支,20%用户将其作为医疗建议的"第二意见"。

值得关注的是,斯坦福大学生物医学数据科学副教授Roxana Daneshjou的研究显示,2022年26%的AI医疗回答包含"非专业医疗建议"警示,但2025年这一比例已骤降至不足1%。当用户上传医学影像时,仅1%的回答保留医疗建议警示,较三年前20%的水平大幅下滑。

研究揭示特定人群存在更高信任度:48%男性用户认为AI是可靠的医疗信息源,显著高于女性的31%;45-54岁中年群体信任度最高(52%),而年轻和年长群体则相对谨慎。但需警惕AI医疗建议存在严重风险——它们既无法进行实体检查,又可能基于错误判断提出危险建议。某研究证实,用户给AI低准确度的医疗建议评分竟与真实医生相当,且存在因错误建议采取有害医疗行为的倾向。

更严峻的是,AI系统不符合《健康保险可携性和责任法案》(HIPAA)合规要求,处理医学影像等敏感数据可能导致隐私泄露。专家警告,AI程序本身存在种族与性别偏见,可能加剧既有医疗不平等。尽管存在这些风险,便捷性、美国医疗体系的准入障碍,以及AI表现出来的"专家权威"形象,正推动越来越多美国人将其视为全天候在线的医疗顾问。


【全文结束】

大健康
大健康