调查显示42%使用AI获取健康建议的成年人未寻求医生随访42% of Adults Using AI for Health Advice Don’t Follow Up with a Doctor: Poll - Yahoo News UK

环球医讯 / AI与医疗健康来源:uk.news.yahoo.com英国 - 英语2026-04-22 04:33:37 - 阅读时长3分钟 - 1050字
凯撒家庭基金会最新民调显示,约三分之一成年人曾使用AI聊天机器人获取身心健康建议,其中42%在身体不适后未咨询医生,58%在心理健康咨询后未寻求专业帮助;年轻群体更依赖AI且信任度低,超80%民众对AI健康建议持怀疑态度,医学专家警告AI可能提供错误信息且无法处理复杂病情,尤其对危机中的青少年存在风险,因其缺乏情感互惠能力与危机干预机制,可能导致严重健康隐患。
AI健康建议医生随访心理健康健康信息医疗专业人员AI健康可靠性错误健康信息健康咨询
调查显示42%使用AI获取健康建议的成年人未寻求医生随访

核心要点

  • 最新民调显示,年轻成年人最可能使用AI获取健康建议但极少寻求医生随访
  • 专家警告AI聊天机器人可能提供错误信息,且无法应对复杂医疗或心理健康需求
  • 超80%未使用AI获取健康建议的成年人表示对该技术毫无信任或信任度极低

许多民众正转向人工智能获取健康建议。然而最新数据表明,其中近半数群体在咨询后未寻求医疗专业人员的进一步帮助。

3月25日,健康政策组织凯撒家庭基金会(KFF)发布了关于民众使用AI聊天机器人获取健康信息的民调结果。本次调查涵盖1,343名成年人,约三分之一受访者承认曾将AI作为身心健康的咨询渠道。

民调显示,该群体中约42%在通过AI咨询身体问题后从未寻求医生或其他医疗专业人员的帮助。此外,58%使用AI获取心理健康建议的成年人未向心理健康专业人士寻求后续支持。

调查同时指出,18至29岁的年轻成年人在身体和心理健康问题上更少寻求专业随访。他们使用AI聊天机器人获取心理健康建议的可能性约为50岁以上成年人的三倍。

尽管AI在健康领域的应用日益普及,公众对其可靠性仍存疑虑。超80%未使用AI获取身心健康建议的成年人表示对该技术毫无信任或信任度极低。在全部受访者中,67%对AI咨询身体健康的可靠性存疑,这一比例在心理健康领域升至77%。

多位专家对民众依赖AI解答医疗问题表示担忧,认为这可能导致错误信息传播及患者无法获得适当治疗。

"核心问题在于大语言模型的故障方式与医生截然不同,"西奈山医疗中心研究员马哈茂德·奥马尔博士向《生活科学》表示,"当医生不确定时会暂停判断、谨慎措辞或要求补充检测,而大语言模型给出错误答案时的自信程度与正确答案完全相同。"

柏林工业大学AI研究员马文·科普卡指出,AI聊天机器人或许能提供合理建议,但缺乏医疗专业支持的情况下,患者"无法判断所得信息是否正确"。

美国心理学会医疗质量与创新总监、临床心理学家莉安娜·福特纳托及心理治疗师埃辛·皮纳尔向《 CNBC》强调,依赖AI处理心理健康问题存在特殊风险。福特纳托表示:"我们已观察到多起高风险事件,尤其是对危机中的青少年或弱势群体,AI未能妥善处理紧急状况——它持续与危机人群互动,未提供危机干预资源,也未纠正问题性思维模式。"皮纳尔补充道:"心理治疗需要另一具神经系统实时观察肢体语言与语调变化,而AI聊天机器人既不会进行情感挑战,也不具备情感互惠的要求。"

【全文结束】