转向AI寻求健康建议?新调查为何让医生担忧Turning to AI for health advice? Why a new survey has doctors worried

环球医讯 / AI与医疗健康来源:www.msn.com美国 - 英语2026-03-27 09:28:14 - 阅读时长2分钟 - 988字
凯泽家庭基金会最新民调显示,约34%美国成年人曾使用AI聊天机器人获取医疗指导,其中42%在咨询身体问题后未就医,58%在心理健康问题后未寻求专业帮助;专家警告大语言模型会以同等自信提供错误答案,缺乏对危机人群的干预能力,尤其青少年滥用风险高,超过77%受访者对AI心理健康建议表示担忧,凸显技术便利与医疗安全间的重大隐患,医生呼吁公众切勿以AI替代专业诊疗,强调人际互动在诊断中的不可替代性。
AI健康建议就医求证心理健康风险医疗信任危机延误正规治疗错误信息隐患青少年心理健康危机
转向AI寻求健康建议?新调查为何让医生担忧

越来越多的人在健康问题上转向人工智能寻求建议并不令人意外。但新数据显示,其中相当一部分人并未采取下一步行动——向真正的医生求证。

研究揭示的关键事实

3月25日星期三,独立医疗政策研究机构凯泽家庭基金会(KFF)发布了关于民众使用AI聊天机器人获取健康建议的民调结果。该调查涵盖1,343名成年人,其中约三分之一表示曾利用AI获取医疗指导,无论是身体问题还是心理健康困扰。

研究发现,咨询AI后涉及身体问题的人群中,约42%从未实际就医或联系医疗保健提供者;而在心理健康领域,这一比例更高,达到58%,即超过半数受访者未向心理健康专家寻求帮助。

数据同时表明,18至29岁的年轻成年人普遍更少寻求专业跟进。年轻人使用AI聊天机器人获取心理健康建议的可能性,是50岁以上人群的三倍。

公众对AI的信任危机

尽管AI在健康咨询中日益普及,多数人仍对其持怀疑态度。同一项研究显示,80%以上未使用AI获取健康建议的成年人表示几乎或完全不信任该技术。

总体而言,67%的受访者对AI回答身体问题表示担忧,而这一比例在心理健康领域跃升至77%。

专家早已警示依赖AI获取医疗建议的风险,主要源于错误信息隐患及患者可能因此延误正规治疗。

"核心问题在于大语言模型的故障模式与医生截然不同,"马哈茂德·奥马尔博士向《生活科学》杂志指出,"医生若不确定会暂停、谨慎判断或要求复查,而大语言模型提供错误答案时却表现出与正确答案同等的自信。"

马文·科普卡补充说明,尽管AI聊天机器人偶尔能给出合理建议,但缺乏医学训练的普通人"无法判断输出内容的正确性"。

心理健康面临特殊风险

在心理健康领域,专家强调风险更为突出。临床心理学家莉安娜·福图纳托与心理治疗师兼生活方式教练埃辛·皮纳利均向美国消费者新闻与商业频道(CNBC)表示,特定情境下依赖AI可能造成危险。

"我们已目睹多起重大伤害事件,尤其对处于危机中的青少年或弱势群体,"福图纳托指出,"AI未能正确处理危机状况,持续与危机人群互动,既未提供应急资源,也未纠正问题思维模式。"

皮纳利强调:"诊疗需要另一个人通过神经系统观察你的肢体语言和语气语调。AI聊天机器人不会进行情感挑战,也不要求互动反馈。"

【全文结束】