尽管OpenAI发出警告,医学领域仍在增加对AI转录工具的使用Despite OpenAI’s warnings, AI transcription use grows in medicine

环球医讯 / AI与医疗健康来源:mindmatters.ai美国 - 英语2024-11-01 02:00:00 - 阅读时长2分钟 - 573字
尽管OpenAI警告其转录工具Whisper存在风险,但医学领域仍在增加对其使用,引发了一系列潜在问题。
OpenAIWhisperAI转录工具医学领域高风险领域幻觉医疗保健不存在的药物
尽管OpenAI发出警告,医学领域仍在增加对AI转录工具的使用

据美联社的Garance Burke和Hilke Schellmann报道,OpenAI声称其转录工具Whisper具有接近人类水平的稳健性和准确性。然而,该公司也警告不要在高风险领域使用这些工具。进一步的报道指出:

  • Whisper存在一个主要缺陷:它容易生成不存在的文本或甚至整个句子。根据与十多位软件工程师、开发人员和学术研究人员的访谈,这些专家表示,一些虚构的文本(业内称为“幻觉”)可能包括种族评论、暴力言论甚至想象中的医疗治疗。
  • 研究人员称,医院中使用的AI转录工具会编造从未说过的内容。一位研究人员发现,在10份AI转录的公共会议记录中有8份存在幻觉现象。其他人也报告了类似发现。

不存在的药物

这些问题在医疗保健领域的后果显而易见。例如,研究片段提到:“在一次转录中,Whisper发明了一种不存在的药物,称为‘超激活抗生素’。”因此,OpenAI警告不要在决策环境中使用其工具。但许多人似乎已经开始这样做。

Burke和Schellmann报道,OpenAI正在努力解决这一问题。然而,这种产生幻觉的倾向可能是其AI模型运行方式的一部分。例如,聊天机器人继续处理自己的数据会导致幻觉和模型崩溃。最近,六位AI研究人员的一份报告指出,大型语言模型(聊天机器人)无法进行形式推理。或许某些类型的思考根本无法机械化。


(全文结束)

大健康
大健康