许多医疗中心使用一种名为Whisper的人工智能工具来转录患者与医生之间的互动。然而,研究人员发现,它有时会凭空生成文本,这一现象在行业中被称为“幻想”,这引发了可能的错误,如误诊等问题。为了进一步了解这一问题,PBS NewsHour的主播John Yang采访了美联社全球调查记者Garance Burke。
约翰·杨(John Yang):欢迎回到PBS NewsHour。许多医院和诊所现在都在使用一种叫做Whisper的人工智能工具来转录患者与医生之间的对话。但是,最近有研究表明,这个工具有时会“幻想”出一些从未发生过的对话内容。我们为此联系到了美联社全球调查记者Garance Burke。Garance,感谢你加入我们。
加兰斯·伯克(Garance Burke):谢谢你邀请我,约翰。
约翰·杨:首先,请给我们解释一下什么是Whisper?
加兰斯·伯克:Whisper是一款由AI公司开发的工具,旨在帮助医疗机构高效地转录患者的医疗记录。它利用深度学习技术来识别语音并将其转换为文本,从而减轻医务人员的工作负担。然而,最近的研究表明,这款工具有时会生成从未发生过的对话内容,这在行业内被称为“幻想”。
约翰·杨:那么,“幻想”具体指的是什么呢?它为什么会发生?
加兰斯·伯克:“幻想”是指AI工具在处理音频数据时,有时会生成与实际情况不符的文本内容。这可能是由于算法在处理复杂或不清晰的音频片段时出现了误解。例如,它可能会误解医生或患者的话语,甚至凭空创造一些对话内容。这种情况可能会对患者的诊断和治疗产生严重影响。
约翰·杨:这听起来确实令人担忧。那么,这些“幻想”现象会对患者造成什么样的影响呢?
加兰斯·伯克:最直接的影响就是可能导致误诊。如果AI工具生成了错误的医疗记录,医生可能会基于这些错误的信息做出错误的诊断或治疗方案。此外,这些错误记录还可能影响患者的病历档案,进而影响他们未来的医疗护理。因此,这个问题不容忽视。
约翰·杨:那么,目前有哪些措施可以减少这些“幻想”现象的发生呢?
加兰斯·伯克:一些医疗机构已经开始采取措施来应对这一问题。例如,他们会在AI生成的转录内容中加入人工审核环节,确保最终的医疗记录是准确的。此外,研究人员也在努力改进算法,使其更加精确地处理音频数据,减少“幻想”的发生。同时,监管机构也在密切关注这一问题,以确保患者的医疗安全。
约翰·杨:非常感谢你为我们详细解释了这个问题,Garance。
加兰斯·伯克:谢谢你,约翰。希望这些问题能够得到更好的解决,保障患者的权益。
(全文结束)


