专家警告ChatGPT医疗建议或存在误导风险ChatGPT’s 'persuasive' medical advice may not be as healthy as you think | The National

环球医讯 / AI与医疗健康来源:www.thenationalnews.com阿联酋 - 英语2025-09-10 01:08:02 - 阅读时长3分钟 - 1017字
迪拜世界健康博览会专家警告,ChatGPT等AI工具生成的医疗建议虽具说服力但未经临床验证,可能误导患者。研究显示50%患者无法区分AI与医生回复,且对低准确性建议过度信任。专家建议加强患者对医疗决策的主导权,同时关注低收入国家患者的知情权提升。
健康ChatGPT人工智能医疗建议误导风险患者医生数字健康工具医疗AI诊断监督
专家警告ChatGPT医疗建议或存在误导风险

患者被敦促谨慎使用ChatGPT等人工智能工具,因其技术生成的 polished 答案极具说服力,可能导致人们误将机器建议当作专业医疗指导。

在迪拜举行的世界健康博览会(WHX Tech)上,健康专家指出,大语言模型正在改变患者与医生的沟通方式——已有患者带着AI推荐的药品清单和治疗方案就诊。专家警告,AI日益增长的说服力可能导致患者过度信任未经临床验证的机器回复。

尽管ChatGPT通过了美国医师执照考试的部分内容,但专家强调,回答考试题目与现实医疗实践存在本质差异——真实诊疗需结合具体情境、专业判断和责任承担。

Rashmi Rao(拉什米·饶)女士在Rcubed Ventures的研究中引用了麻省理工学院的对比实验:当患者面对ChatGPT与医生的回复时,50%的情况下无法辨别回复来源。更令人担忧的是,即使AI回复存在错误,受访者仍给予更高评价。"当患者信任AI却收到低准确度结果时,就会陷入危险的滑坡。"她特别呼吁对面向患者的生成式AI工具提出更高要求,"不仅要确保数据隐私,更要对其产生的说服力负责"。

来自《数字健康面孔》播客的Tjasa Zajc(提贾·扎伊茨)女士分享了自身经验。作为炎症性肠病患者,她坦言依赖ChatGPT补充医嘱间隔期的信息需求:"患者使用AI不是因为技术新颖,而是出于绝望——两次就诊间隔可能长达半年,无法随时联系医生。"

她强调提问方式的重要性:"问'这种药物有什么信息'与'这种药物对我有多大危害'会产生截然不同的结果,因为语言模型会倾向于附和提问者。"她最近一次病情发作时发现,医生已开始期待患者更主动参与决策:"当医生问我'想要哪种药物'时,我在思考这是不是新的医患互动模式?"

KLAS Research高级洞察总监Jon Christensen指出,生成式AI可能特别惠及医疗资源匮乏的低收入国家。研究显示,非英语母语的低收入患者反而是数字健康工具最大的受益者——他们可以借助翻译功能从容阅读、撰写问题并获取母语医疗信息。不过患者调查显示,尽管约半数受访者接受AI辅助诊疗,仍有20%明确反对,尤其在涉及诊断等核心环节时。

专家建议,医疗AI的使用应确保医生持续参与诊断监督。研究团队特别提到,患者希望医生能保持直接参与度,对AI生成的诊断和治疗方案进行把关。

【全文结束】