AI撰写的患者信息或可推动临床护理创新,研究显示AI-written patient messages could boost innovation in clinical care, study shows

环球医讯 / AI与医疗健康来源:www.bme.jhu.edu美国 - 英语2024-12-16 23:00:00 - 阅读时长3分钟 - 1311字
约翰斯·霍普金斯大学的研究人员开发了一种名为DREAM的AI系统,该系统可以生成合成的患者门户消息,用于训练大型语言模型,从而在保护患者隐私的同时推进医疗研究和改善患者护理。
AI患者信息临床护理创新医疗数据匿名化DREAM大型语言模型患者隐私合成数据种族偏见
AI撰写的患者信息或可推动临床护理创新,研究显示

医疗数据通常会被“匿名化”以保护私人健康信息,这是遵守《健康保险流通与责任法案》(HIPAA)的关键做法。为了应对传统匿名化方法可能影响数据准确性和真实性的局限性,约翰斯·霍普金斯大学的研究人员开发了DREAM,这是一种能够生成合成患者门户消息的人工智能系统,可用于训练大型语言模型。DREAM已公开发布在GitHub上。

他们的方法在《生物医学信息学杂志》中有所描述,克服了医学AI中的一个关键挑战:在维护患者记录隐私的同时,保留患者数据的准确性。

“高质量的合成医疗数据可以显著推进健康研究并改善患者护理,”该研究的资深作者、约翰斯·霍普金斯大学生物医学工程和医学副教授凯西·泰勒(Casey Taylor)说,“通过使用大型语言模型创建现实的数据集,我们可以在不使用真实数据引发患者隐私问题的情况下,开发潜在有用且有意义的AI模型。”

泰勒表示,这项研究是首批利用大型语言模型(LLMs)生成现实患者门户通信的研究之一。研究合作者包括惠廷工程学院语言和语音处理中心的助理研究员阿雅·齐里克利(Ayah Zirikly)和计算机科学博士生娜塔莉·王(Natalie Wang)。

研究人员使用OpenAI的GPT-4生成了关于症状和药物的合成患者信息,重点在于创造最自然、最像人类的消息。

“提示工程是向模型提供明确指令或文本输入的过程,让AI执行你想要的具体任务——这与给某人详细的蛋糕制作食谱没有什么不同,”王说,“在这种情况下,我们的提示基于从患者发送给医生的真实世界消息中精心分类的一组数据。”

在这项研究中,研究团队考察了各种提示如何影响由AI生成的450条患者信息。他们使用了一种称为语言探究和词频计数(LIWC)的工具,该工具分析文本的各种心理和情感内容,研究人员根据礼貌度和情感为每条信息打分。他们还评估了不同提示选项下症状和相关药物的提及准确性。

研究发现,DREAM生成的信息在质量和语气上与人类患者撰写的信息非常相似。例如,在提示中带有“高紧急性”的信息具有最高的“需求”情感得分,表明其紧迫感的真实性。

然而,泰勒、王和齐里克利指出,他们的研究也突显了合成数据生成中的种族偏见问题,发现AI生成的信息仍然延续有害的偏见。当他们提示ChatGPT生成据称由某些种族个体撰写的信件时,生成的信息往往得分较低。此外,包含“黑人或非裔美国人”词语的提示中,症状-药物配对的准确性较低,而包含“白人”词语的提示中,准确性最高。研究人员表示,正确提示生成式AI对于减少这些偏见至关重要。

总体而言,研究团队认为,由大型语言模型生成的合成数据最终将通过允许研究人员使用高质量数据进行AI应用实验,同时仍遵守隐私规则,加速医学研究和发现。

“合成数据集可能有助于构建更强大的工具,将患者门户信息定向到不同的提供者类型或行政人员,具体取决于信息中提到的副作用的存在、紧迫性和严重性,”泰勒说,“鉴于我们在基因组医学方面的兴趣,我们接下来将探索检测适合药理基因组学专家审查的信息的方法。”

该研究的其他作者包括余志卢、苏克里特·特雷瓦雷、米歇尔·阮、巴维克·阿加瓦尔、贾什·沙赫和詹姆斯·史蒂文森。


(全文结束)

大健康
大健康