AI医疗翻译安全吗?Is AI Safe for Healthcare Translation?

环球医讯 / AI与医疗健康来源:slator.com西班牙 - 英语2024-12-16 21:00:00 - 阅读时长4分钟 - 1536字
本文探讨了AI翻译技术在医疗领域的应用及其安全性,分析了当前存在的问题和潜在的风险,并提出了混合模型作为解决方案的可能性。
AI医疗翻译安全医疗访问医疗领域大型语言模型混合模型伦理与法规患者保护
AI医疗翻译安全吗?

随着AI翻译技术逐渐成为各种系统的一部分,医疗领域的机构早已超越了对这项技术的一般兴趣:它们要么正在规划,要么在尝试,要么已经在使用。就像AI出现之前的情况一样,一些解决方案是有机发展的,而另一些则是通过专家提供的,这些专家不一定来自语言行业。事实上,大型语言模型(LLMs)——这些是经过大量数据训练的大型神经网络——使得许多拥有访问权限和技术知识的人能够创建AI翻译工具。专有的LLMs也是其中的一部分,对于某些独特的应用场景,如制药或医疗器械的临床试验,它们可能更有意义。总而言之,AI翻译正以多种方式进入医疗行业。

医疗、制药和健康公司实施AI翻译的例子已不再罕见。但需要时间来收集更多关于实施该技术结果的数据,尤其是回答AI翻译在医疗环境中是否安全的问题。目前唯一的答案是“这取决于具体情况”。

在本文发布时,一些AI工具尚未达到被认为是“安全”的水平。2024年10月,美联社的一份报告指出,OpenAI的多语言转录工具Whisper经常产生幻觉(即编造内容)。报告称,基于Whisper的一款私人公司工具已经用于约700万次医疗访问。

模型幻觉只是导致AI工具不安全的一个例子。然而,AI对提供者、患者、保险公司及相关方的影响当然是双重的,因此在决定是否采用AI翻译时需要考虑很多因素。

一方面,可能会带来显著的好处,包括语言访问和效率的明显提升、潜在的新市场和服务增强。另一方面,可能会出现超出幻觉的问题,包括传播的语言错误、IT问题和数据漏洞。在现有系统中添加翻译功能(TaaF),或集成来自OpenAI或DeepL等语言技术提供商的翻译技术的机构,最好从风险管理的角度来对待AI。

混合模型是答案吗?

在准确性、文化细微差别、术语问题和其他语言问题方面,专业语言学家擅长发现和纠正这些问题。自神经机器翻译(MT)推出以来,他们的专业知识一直是训练翻译引擎和编辑MT输出的关键。

同样的专业知识现在对于LLM的训练和微调,以及AI翻译的校正至关重要。在需要实时结果的场景中,例如通过语音到语音翻译(S2ST)进行的AI口译,预期是没有人为干预的。然而,要确保“安全”,这样的设置必然意味着患者面临的风险较低。

医疗中的低风险场景可能包括患者的入院点、财务和保险目的的行政互动,以及患者可以输入生命体征和基本医疗信息的自助分诊站,这些信息由AI处理。

同样,在某些受控情况下,AI可能是足够的并且“安全”的,例如在临床试验中的预约,此时正在收集用于初步受试者筛选的信息,例如在脚本化的访谈中,他们必须提供同样受控的答案,如“是”或“否”。

随着技术的进步,混合方法意味着人类语言学家将继续校正AI生成的转录和文本翻译,并在高风险情况下进行口译,如任何不受控制、非脚本化的医疗互动。

在专业语言学家或双语临床医生的手中,即时AI术语查找和用于不同质量保证步骤的AI代理也会帮助创建混合工作流程。所有潜在解决方案都必须伴随适当的缓解策略(例如,人工监督、改进的训练数据、错误检测算法等)。

伦理与法规

像欧盟AI法案和美国AI行政命令这样的全面AI立法是任何行业开始考虑或完善AI使用实践标准和伦理的好起点。但标准和指南的制定将需要依赖于AI翻译实施过程中的共享数据。

增加患者保护机制应有助于创建一个伦理和合规的医疗AI框架。这意味着患者和医疗服务提供者应参与此类指南的制定,语言专家也应参与其中。

本文咨询的所有来源都代表了这些群体。它们显示了一个共识,即AI有潜力彻底改变医疗领域的语言服务,但这种乐观态度应伴随着谨慎的考虑、计划和实施。

持续的研究与负责任的发展和部署应有助于减轻所有相关方的风险,指导指南的制定,并解决和预见合规问题。


(全文结束)

大健康
大健康