越来越多的人在健康问题上转向人工智能寻求建议并不令人意外。但新数据显示,其中相当一部分人并未采取下一步行动——向真正的医生求证。
研究揭示的关键事实
3月25日星期三,独立医疗政策研究机构凯泽家庭基金会(KFF)发布了关于民众使用AI聊天机器人获取健康建议的民调结果。该调查涵盖1,343名成年人,其中约三分之一表示曾利用AI获取医疗指导,无论是身体问题还是心理健康困扰。
研究发现,咨询AI后涉及身体问题的人群中,约42%从未实际就医或联系医疗保健提供者;而在心理健康领域,这一比例更高,达到58%,即超过半数受访者未向心理健康专家寻求帮助。
数据同时表明,18至29岁的年轻成年人普遍更少寻求专业跟进。年轻人使用AI聊天机器人获取心理健康建议的可能性,是50岁以上人群的三倍。
公众对AI的信任危机
尽管AI在健康咨询中日益普及,多数人仍对其持怀疑态度。同一项研究显示,80%以上未使用AI获取健康建议的成年人表示几乎或完全不信任该技术。
总体而言,67%的受访者对AI回答身体问题表示担忧,而这一比例在心理健康领域跃升至77%。
专家早已警示依赖AI获取医疗建议的风险,主要源于错误信息隐患及患者可能因此延误正规治疗。
"核心问题在于大语言模型的故障模式与医生截然不同,"马哈茂德·奥马尔博士向《生活科学》杂志指出,"医生若不确定会暂停、谨慎判断或要求复查,而大语言模型提供错误答案时却表现出与正确答案同等的自信。"
马文·科普卡补充说明,尽管AI聊天机器人偶尔能给出合理建议,但缺乏医学训练的普通人"无法判断输出内容的正确性"。
心理健康面临特殊风险
在心理健康领域,专家强调风险更为突出。临床心理学家莉安娜·福图纳托与心理治疗师兼生活方式教练埃辛·皮纳利均向美国消费者新闻与商业频道(CNBC)表示,特定情境下依赖AI可能造成危险。
"我们已目睹多起重大伤害事件,尤其对处于危机中的青少年或弱势群体,"福图纳托指出,"AI未能正确处理危机状况,持续与危机人群互动,既未提供应急资源,也未纠正问题思维模式。"
皮纳利强调:"诊疗需要另一个人通过神经系统观察你的肢体语言和语气语调。AI聊天机器人不会进行情感挑战,也不要求互动反馈。"
【全文结束】

