医疗领域的AI:应对幻觉现象的现实挑战
当临床医生开始使用人工智能工具完成病历记录和护理计划等日常操作时,一个不可忽视的问题逐渐显现:当AI输出错误信息时,会对患者安全产生怎样的影响?
即使是偶尔使用ChatGPT等大语言模型(LLM)的用户,都可能遇到过所谓的"幻觉"现象——即AI生成的输出信息出现错误或误导。尽管Google的Med-PaLM 2在医学考试问题中取得了85%的正确率,但2023年发表在《JAMA Network Open》的研究显示,AI生成的出院摘要中,有18%的病例包含不完整或误导性的信息。
更严重的问题在于,这些错误的诊断或用药信息一旦被写入患者的医疗记录,就会在多份病历中复制传播。当其他临床医生参考这些错误记录时,可能导致不当的临床决策、不必要的医疗干预、关键诊疗措施的遗漏或延误。
医疗AI解决方案公司Medicomp Systems首席医疗官Jay Anders医生指出:"环境监听技术(多为AI驱动)让医护人员产生了一种错误认知——以为只要和患者对话,数据就能自动采集、记录并生成文档。但必须仔细核查AI输出的内容。"
常见错误与连锁反应
Anders医生列举了典型的AI错误案例:基于对话录音错误判断患者性别,或将对话中提及的家族病史误记为患者本人病史。例如患者提及父亲患有糖尿病,AI却记录为患者本人患病。
这类错误一旦进入医疗记录系统,就会随着数据共享传递到其他医疗机构。Anders警告说:"当保险公司在核保时调取你的医疗记录,发现本不存在的糖尿病诊断,这不仅会影响保费计算,甚至可能导致拒保。"
这种错误信息具有极强的持续性:"医疗记录中的错误信息会像寄生虫一样附着在个人档案中,想要彻底清除极其困难,而没有任何医疗机构愿意为此承担责任。"
早期纠错机制
在记录生成阶段就建立纠错机制至关重要。现有技术可以通过比对医疗记录中的异常诊断来识别潜在错误,并与患者进行核实。但Anders指出:"原始错误可能已被发送到5-10个不同机构,作为医生你根本无法同时调取所有副本进行修正。"
他认为问题的根源在于过度依赖技术的"懒惰心理":"期望AI100%准确完成记录工作是错误的。医生必须亲自核查每个记录,确认是否真实反映了对话内容。"
患者教育同样重要:"大型医疗机构应明确告知患者正在使用环境监听技术,并提供选择退出的权利,允许回归传统口述或手写记录方式。"
临床实践方式的改变
某大型医疗集团使用环境监听技术的初级保健医生反馈:"这种技术改变了我的行医方式,但并不是向好的方向发展。虽然节省了时间,但我与患者对话时感觉像在法庭作证,因为技术会记录每个字。"
这种改变削弱了医患间的日常交流:"医生们不再询问'父母近况如何''最近有去度假吗'这类建立信任的问题,因为这些无关信息会被记录又需要手动删除。这直接影响了医患关系的深度建立。"
文化转型挑战
Anders指出:"任何阻碍医患沟通的技术都存在问题。"他分享了某位亲属就医时的经历:6位专科医生中有3位表示AI系统改变了他们的工作方式,但效率提升有限。"系统生成大量文本后,医生反而要花时间检查修改,这与预期节省时间的目标背道而驰。"
尽管存在诸多质疑,临床医生却缺乏选择权:"大型医疗机构强制推行AI系统,医生无法回归传统的人工记录或语音转录方式。"
患者则应保有拒绝录音的权利:"患者有权说'不,我不信任这种技术,不知道对话内容会被用在何处'。"
数据隐私与监管需求
医疗数据的流向引发担忧:"对话录音必须传输到某个服务器进行处理,但患者无从知晓数据存储位置和处理方式。"Anders强调隐私保护的必要性:"80%的患者同意医疗记录在医疗机构间共享,但这不等于他们愿意数据被直接发送给ChatGPT这样的AI系统。"
监管框架亟待完善:"联邦政府应要求机构必须透明公开AI系统的运作方式。在明确监管出现前,患者需要主动了解数据使用情况,医疗机构则有义务进行充分告知。"
技术与责任边界
Anders总结道:"最大的问题是对技术能力的错误预期。如果期望AI完全自动化完成记录工作且无需人工干预,这种期待本身就是错误的。"
他特别强调责任边界:"AI不应承担临床医生的责任。当发生错误时,最终承受后果的只能是患者。不要妄想用技术取代训练有素的专业人员,而应将AI作为增强临床能力的工具。"
【全文结束】