OpenAI的Whisper因医疗转录出现幻觉而面临负面报道OpenAI’s Whisper Faces Bad Press for Hallucinations in Healthcare Transcription

环球医讯 / AI与医疗健康来源:slator.com美国 - 英语2024-11-19 17:00:00 - 阅读时长2分钟 - 950字
OpenAI的转录工具Whisper在医疗转录中频繁出现幻觉,引发广泛关注和担忧
OpenAIWhisper医疗转录幻觉医疗访问Nabla聋哑患者有限英语能力患者医疗口译实时语音翻译
OpenAI的Whisper因医疗转录出现幻觉而面临负面报道

主流媒体已经开始关注一个可能对医疗环境中的人工智能实施产生影响的挑战,包括由AI驱动的翻译和口译。据美联社10月26日的报道,OpenAI的转录工具Whisper受到“幻觉”(即虚构内容)的困扰。

虽然大多数开发者认为转录工具会拼写错误或其他错误,但工程师和研究人员表示,他们从未见过任何其他AI驱动的转录工具像Whisper那样频繁地出现幻觉。文章中提到:“在医疗转录中,幻觉的风险尤其高。” 据美联社报道,已经有超过30,000名临床医生和40个医疗系统开始使用基于Whisper的工具。Nabla公司是该工具的开发方,告诉美联社该产品已经用于约700万次医疗访问。一位自称为医疗专业人员沟通教练的Tony Brown在LinkedIn上评论说:“或许我们应该再等等。”

据报道,Nabla的工具为了数据安全的原因会删除原始音频记录,这一做法可能会对聋哑患者特别不利,因为他们无法将转录内容与音频进行核对。同样的限制也可能适用于有限英语能力(LEP)的患者,他们在美医疗系统中是语言服务需求的主要驱动力,尤其是口译服务。

除了单语转录,Whisper还可以进行多语种转录,这是一个更复杂的任务,不太可能减少幻觉的发生。《连线》杂志在其报道中指出,一项同行评审的研究发现,“幻觉不成比例地发生在说话者有较长非语音时段的情况”。这是否也会在连续口译过程中发生,即说话者在轮流发言时有时会暂停?

幻觉似乎普遍存在:TechCrunch采访了一位使用Whisper创建了26,000份转录的开发者,结果几乎每一份转录中都发现了幻觉。这些幻觉可能从种族评论到虚构的医疗治疗不等。

尽管OpenAI的技术已经通过ChatGPT及其衍生产品声名鹊起,但Whisper的不足之处却在OpenAI推出实时语音翻译API时引起了关注。目前尚不清楚用户是否会因为这些已公开的缺点而感到不满。例如,明尼苏达州的企业翻译办公室已经使用OpenAI建立了一个新的翻译工作流程,并正在探索使用ChatGPT的语音功能进行实时口译的“有限试点项目”。

随着美国人口老龄化和多元化,医疗口译的需求不断增长。2024年9月,美国众议院一致通过了一项法案,旨在扩大远程医疗服务的语言访问,这种设置可能整合自动转录技术。


(全文结束)

大健康
大健康