澳大利亚皇家全科医师学院(RACGP)发布了一项新资源,指导全科医生(GPs)如何在咨询中实践使用对话式人工智能,以及如何理解这项新技术的工作原理和需要注意的风险。
人工智能(AI)在医疗保健领域的相关性日益增加,但至少有80%的全科医生报告称,他们对特定的AI工具并不熟悉或非常不熟悉。
为了帮助全科医生更广泛地了解这项技术,并评估其在实践中的潜在优缺点,RACGP推出了一项全面的新资源,重点聚焦于对话式人工智能。
与将医患对话转化为可纳入患者健康记录的临床笔记的AI书记员不同,对话式人工智能是一种使机器能够以自然方式解释、处理和回应人类语言的技术。
例如,AI驱动的聊天机器人和虚拟助手可以支持患者互动、简化预约安排并自动执行常规的行政任务。
该学院资源提供了如何在全科实践中有效应用对话式人工智能的实用指南,并突出了关键应用。这些包括:
- 回答患者有关诊断、处方药潜在副作用的问题,或通过简化医学报告中的术语;
- 提供治疗/用药提醒和剂量说明;
- 提供语言翻译服务;
- 引导患者找到适当的资源;
- 支持患者跟踪和监测血压、血糖或其他健康指标;
- 在会诊前对患者进行分类;
- 准备医疗文件,如临床信件、临床笔记和出院摘要;
- 通过准备鉴别诊断列表、支持诊断和优化临床决策支持工具(用于检查和治疗选项),提供临床决策支持;
- 建议治疗方案和生活方式建议。
RACGP的实践和技术管理专家委员会主席Rob Hosking博士告诉《newsGP》,这些工具在全科实践中具有多种潜在优势。
“一些潜在的好处包括任务自动化、减少行政负担、改善患者获得护理的机会以及为患者提供个性化的健康教育,”他说。
除了临床环境外,对话式人工智能工具还可以在商业、教育和研究领域发挥多种作用,例如自动化计费和分析计费数据、总结医学文献以及回答临床医生的医学问题。
然而,虽然有许多好处,Hosking博士指出考虑其使用的潜在缺点也很重要。
“对话式人工智能工具可能会提供看似权威但经过审查后却模糊、误导甚至错误的回答,”他解释道。
“AI工具所训练的数据本身带有偏见,因此某些患者群体很可能在数据中代表性不足。”
“存在对话式人工智能做出不合适甚至歧视性推荐、依赖有害和不准确的刻板印象、或排除或污名化已经边缘化和脆弱个体的风险。”
虽然有些对话式人工智能工具专为医疗用途设计,例如谷歌的MedPaLM和微软的BioGPT,但Hosking博士指出,大多数工具都旨在用于一般应用,并未针对临床背景下的结果进行训练。
“这些通用工具所训练的数据不一定是最新的或来自高质量来源,如医学研究,”他说。
该学院解决了这些潜在问题以及其他伦理和隐私问题,这些问题是使用AI进行医疗保健带来的。
对于决定是否使用对话式人工智能的全科医生,Hosking博士指出,确保安全和高质量护理的交付有很多需要考虑的因素,并表示患者应在决定是否在其具体咨询中使用该技术的过程中发挥关键作用。
“全科医生应让患者参与使用AI工具的决策,并在使用面向患者的AI工具时获得知情同意,”他说。
“此外,不要输入敏感或识别数据。”
然而,在对话式人工智能被引入实践工作流程之前,RACGP建议全科医生接受如何安全使用它的培训,包括了解该工具的风险和局限性,以及数据存储的方式和位置。
“全科医生必须确保对话式人工智能工具的使用符合相关立法和法规,以及任何可能影响、禁止或管理其使用的诊所政策和职业责任保险要求,”该学院资源指出。
“还值得考虑的是,专门为医学从业者设计并供其使用的对话式人工智能工具可能比通用的开放使用工具提供更准确和可靠的信息。”
“如果这些工具提出诊断或治疗建议,则应注册为TGA医疗设备。”
尽管该学院认识到对话式人工智能可能会彻底改变部分医疗服务的交付,但在现阶段,它建议全科医生在使用该技术时要‘极其小心’。
“关于患者安全、患者隐私、数据安全和对临床结果的影响,仍有许多问题尚未解决,”该学院表示。
尚未在自己临床实践中实施对话式人工智能工具的Hosking博士对此表示认同。
“AI将继续发展,确实可能对患者结果和全科医生的时间节省产生巨大影响,”他说。
“但它永远不会取代医患关系的重要角色。我们需要确保AI不会因内置偏见而造成健康不公平。”
“这将有助于全科医生权衡在实践中使用对话式人工智能的潜在优缺点,并告知这些工具的相关风险。”
(全文结束)


