麻省理工学院研究:人们更信任人工智能而非医生提供的医疗建议People trust AI over doctors for medical advice, MIT study

环球医讯 / AI与医疗健康来源:www.newsbytesapp.com美国 - 英语2026-01-27 03:02:53 - 阅读时长2分钟 - 681字
麻省理工学院发表于《新英格兰医学杂志》的研究显示,300名参与者在评估医疗建议时,普遍认为人工智能生成的回答比人类医生更准确、可靠且完整,且无法有效区分两者来源;研究特别警示参与者会高度采纳AI提供的低准确性建议,导致寻求不必要的医疗干预,已发生多起因AI错误指导引发的医疗事故,如用橡皮筋处理痔疮或误服溴化钠等事件,脊柱外科专家指出约四分之一的AI医疗建议缺乏科学文献支持,存在严重误导风险,可能对患者健康造成不可逆损害。
健康人工智能医疗建议信任AI医生医疗建议风险误传信息有害AI建议AI准确性MIT研究专家警示
麻省理工学院研究:人们更信任人工智能而非医生提供的医疗建议

研究背景

麻省理工学院(MIT)研究人员近期开展的一项研究发现,人们更倾向于信任人工智能(AI)提供的医疗建议而非人类医生。该研究发表在《新英格兰医学杂志》上,共有300名参与者被要求评估由医生或ChatGPT等AI模型生成的医疗回复。

研究发现

AI回复被评为更准确可靠

医疗领域的专家和非专家参与者均认为,AI生成的回复在准确性、有效性、可信度和完整性方面评分更高。两组参与者均无法可靠区分AI生成回复与人类医生提供的回复。这表明参与者可能更偏好AI生成的回复,尽管这些系统提供的信息可能存在不准确性。

误传信息风险

参与者高度倾向遵循AI的低准确性建议

研究还发现,参与者将低准确性的AI生成回复评定为有效、可信且令人满意。他们表现出高度倾向遵循这种潜在有害的医疗建议,进而寻求不必要的医疗干预。这凸显了医学领域AI系统传播误传信息的风险,可能对患者的健康和福祉造成严重后果。

现实案例

有害AI医疗建议事件

已有多起AI提供有害医疗建议的记录案例。其中一例涉及一名35岁摩洛哥男子,因聊天机器人建议他用橡皮筋缠绕痔疮而不得不前往急诊室。另一起事件中,一名60岁男子在ChatGPT建议服用溴化钠可减少盐摄入后,导致自身中毒。这些案例凸显了依赖AI获取医疗建议的潜在危险。

专家警示

AI建议常缺乏科学依据

纽约特殊外科医院脊柱外科研究主管达伦·勒布朗博士此前已对AI生成的医疗建议表示担忧。他指出,这些程序提出的许多建议并非基于实际出版物的真正科学建议,“约四分之一的建议是编造的”,这凸显了信任AI获取医疗指导可能带来的不准确性和风险。

【全文结束】