人类更信任人工智能提供的医疗建议——即使这些机器人经常提供虚假信息,根据一项新研究显示。
麻省理工学院研究人员在《新英格兰医学杂志》上发表的一篇论文称,共有300名参与者被要求评估由医生、在线医疗平台或AI模型(如ChatGPT)撰写的医疗回复,并选择他们最信任的来源。研究发现,无论是医疗领域的专家还是非专家,都更偏好由人工智能"复述"的医疗建议。
参与者——包括医疗领域的专家和非专家——认为AI生成的回复更准确、有效、值得信赖且完整。
研究发现,无论是专家还是普通人都无法可靠区分AI生成的回复和人类医生提供的回复。
在研究中,研究人员还要求参与者评估那些准确性较低的AI建议(参与者并不知道这些信息准确性低)。
研究人员发现:"参与者不仅认为这些低准确性的AI生成回复是有效、可信且完整/令人满意的,而且还表示有很高的倾向去遵循这些潜在有害的医疗建议,并因此错误地寻求不必要的医疗关注。"
有大量记录在案的案例显示AI提供了有害的医疗建议,其中一名身份不明的35岁摩洛哥男子在聊天机器人指示他用橡皮筋包裹痔疮后,被迫前往急诊室。
另一个令人震惊的案例中,一名60岁男子在ChatGPT建议他食用通常用于泳池消毒的溴化钠来减少食盐摄入后,导致自己中毒。该男子因妄想和幻觉住院三周,根据8月份发表在《内科医学临床案例》上的病例研究报告。
纽约特种外科医院脊柱外科研究服务主管达伦·勒布博士此前表示:"问题是,他们从这些AI程序中得到的并不一定是有实际出版物支持的真实科学建议。""大约四分之一的建议是编造的,"这位医生透露。
Censuswide最近进行的一项调查显示,约40%的受访者表示他们信任ChatGPT等AI机器人的医疗建议。
【全文结束】

