ChatGPT 等聊天机器人有时可以准确回答患者的问题,但加拿大医学研究人员警告,在依据这些信息采取行动之前,必须仔细核实。
这一建议是在安大略省医学会(OMA)本周举办的一场媒体简报会上提出的。会议讨论了从搜索引擎、社交媒体到聊天机器人等自助信息来源的影响,并探讨患者应如何应对。
安大略省北湾市的精神科医生瓦莱丽·普里莫(Valerie Primeau)表示,越来越多患者转向使用人工智能工具,现在必须发出警告。她领导心理健康和成瘾的住院及社区项目。
这些聊天机器人提供的回答具有说服力且显得富有同理心,但信息可能是虚假的。
普里莫表示:“我现在已经有患者向 ChatGPT 寻求建议并进行交流。我预见这一问题将持续存在,如果我们现在不加以应对并帮助人们应对这一趋势,他们将面临困难。”
安大略省伦敦市的放射肿瘤学家大卫·德索萨(David D'Souza)领导针对癌症图像治疗的临床研究。他表示,患者若误解人工智能提供的信息,可能会推迟传统治疗。
“有一位患者来问我,是否应该推迟几年再治疗他已确诊的癌症,因为他相信人工智能将为患者定制癌症治疗方案。我必须说服他为何现在就应接受治疗。”德索萨对记者说。
安大略省医学会主席宰纳卜·阿卜杜勒拉赫曼(Zainab Abdurrahman)博士建议,如果某个帖子声称“医生一直对你们隐瞒此事”,她建议患者查阅加拿大专业医学组织或医院网站的内容,确认其是否支持该信息。
她同时是一名临床免疫学家和过敏症专家,提醒称虚假广告,包括人工智能生成的图片,也可能误导患者。
人工智能结果因细节缺失而难以信赖
尽管技术在不断进步,当前的聊天机器人经常以看似权威的方式回答健康问题,却提供了错误的信息。
在一项研究中,西安大略大学病理与实验室医学系助理教授本杰明·陈-伊(Benjamin Chin-Yee)及其合著者将近 5000 条医学和科学文献摘要输入包括 ChatGPT 在内的大型语言模型,并要求其进行总结。
他们发现,四分之三的 AI 总结版本遗漏了原文中关键的细节。
例如,期刊文章可能指出某种药物仅对特定患者群体有效,而 AI 总结却省略了这一关键信息。陈-伊同时也是血液科医生。
“令人担忧的是,当这些细节被忽略时,可能会误导试图利用这些知识来影响临床实践的专业人员。”
陈-伊表示,人工智能是一个快速发展的研究领域,较新的模型更加人性化、用户友好,但仅依赖这些工具也存在弊端。
同样,多伦多大学的医学生大卫·陈(David Chen)将聊天机器人对 Reddit 论坛上 200 个癌症相关问题的回答与肿瘤科医生的回答进行了比较。
“我们惊讶地发现,根据我们医生团队对质量、同理心和可读性的评估,这些聊天机器人在接近人类专家水平上表现出色。”陈说。
但他也指出,实验结果可能无法反映现实世界的情况。
“在没有医学监督的情况下,很难百分之百信任这些生成技术的输出。”他补充说,隐私、安全性和患者信任的问题尚未得到充分探讨。
不应依赖单一聊天机器人
像聊天机器人这样的生成式人工智能技术基于模式匹配,它根据训练数据为特定问题提供最可能的输出。然而,在医学领域,一些罕见的可能诊断也很重要,不应被排除。
此外,聊天机器人可能会“幻觉”——产生听起来有说服力但错误、虚构、无意义或不相关的结果。
陈表示:“已有研究指出,这些聊天机器人的幻觉率可能高达 20% 以上,这可能导致其输出在临床上出现错误。”
今年春季,加州圣地亚哥斯克里普斯研究所的教授兼执行副院长、心脏病学家埃里克·托波尔(Eric Topol)出版了一本名为《超级长寿者:一种基于证据的长寿方法》的书籍,探讨了人工智能对寿命和生活质量的影响。
他说:“关于患者使用聊天机器人的案例有很多好的轶事,也有坏的轶事。但目前尚未以有意义的方式对公众使用情况进行系统评估。”
托波尔建议人们应咨询多个聊天机器人,并验证信息的可靠性。他还建议要求聊天机器人提供医学文献的引用,但指出这些引用有时并不真实,需要核实。
他表示,理想情况下,应进行真实世界的测试,追踪成千上万使用 AI 与未使用 AI 的人,记录他们接受的检查、诊断和结果。但科技公司不太可能参与,因为这不会给他们带来直接好处。
他说:“我们现在所处的是一个不同的世界,时光无法倒流。”
【全文结束】


