研究背景
麻省理工学院(MIT)研究人员近期开展的一项研究发现,人们更倾向于信任人工智能(AI)提供的医疗建议而非人类医生。该研究发表在《新英格兰医学杂志》上,共有300名参与者被要求评估由医生或ChatGPT等AI模型生成的医疗回复。
研究发现
AI回复被评为更准确可靠
医疗领域的专家和非专家参与者均认为,AI生成的回复在准确性、有效性、可信度和完整性方面评分更高。两组参与者均无法可靠区分AI生成回复与人类医生提供的回复。这表明参与者可能更偏好AI生成的回复,尽管这些系统提供的信息可能存在不准确性。
误传信息风险
参与者高度倾向遵循AI的低准确性建议
研究还发现,参与者将低准确性的AI生成回复评定为有效、可信且令人满意。他们表现出高度倾向遵循这种潜在有害的医疗建议,进而寻求不必要的医疗干预。这凸显了医学领域AI系统传播误传信息的风险,可能对患者的健康和福祉造成严重后果。
现实案例
有害AI医疗建议事件
已有多起AI提供有害医疗建议的记录案例。其中一例涉及一名35岁摩洛哥男子,因聊天机器人建议他用橡皮筋缠绕痔疮而不得不前往急诊室。另一起事件中,一名60岁男子在ChatGPT建议服用溴化钠可减少盐摄入后,导致自身中毒。这些案例凸显了依赖AI获取医疗建议的潜在危险。
专家警示
AI建议常缺乏科学依据
纽约特殊外科医院脊柱外科研究主管达伦·勒布朗博士此前已对AI生成的医疗建议表示担忧。他指出,这些程序提出的许多建议并非基于实际出版物的真正科学建议,“约四分之一的建议是编造的”,这凸显了信任AI获取医疗指导可能带来的不准确性和风险。
【全文结束】

