药房中使用人工智能的监管亟需出台PJ view: Regulations around AI use in pharmacy are needed now before technology advances further

环球医讯 / AI与医疗健康来源:pharmaceutical-journal.com英国 - 英语2025-03-01 00:00:00 - 阅读时长3分钟 - 1317字
本文探讨了在药房中使用人工智能技术的时间节省优势及其潜在风险,强调了制定相关监管措施的重要性,以确保患者安全和专业责任。
药房人工智能监管NHS数字健康记录患者信息访问AI风险药剂师通用药剂师委员会患者安全
药房中使用人工智能的监管亟需出台

当涉及到在NHS(英国国民医疗服务体系)中实施“新”技术时,这个过程通常是漫长且充满延误的。

这一点在NHS计划实现“无纸化”的过程中表现得最为明显。该计划旨在建立一个数字健康记录系统,使患者的医疗信息能够在不同的医疗和社会护理机构之间共享。这一计划最初于2013年宣布,并设定了2018年的实施目标。然而,这一目标后来被推迟到2020年,又因新冠疫情的影响再次推迟至2025年3月。

目前尚不清楚这一目标是否能在下个月实现,从而最终让药剂师能够访问更多的患者信息。与此同时,还有一种更新的技术同样具有变革医疗保健的潜力,而且更加迅速,无需等待政府的规划和期限——这就是人工智能(AI)。

对于普通用户来说,像ChatGPT、Gemini或Copilot这样的大型语言模型(LLMs)提供了易于访问且常常免费的解决方案,帮助我们应对时间稀缺的问题。这使得它对那些在NHS工作的人,特别是药房工作人员尤其有吸引力。《药学杂志》在2024年4月进行的一项针对1,243名药剂师的调查显示,61%的受访者表示他们在工作中感到“中度压力”或“高度压力”,其中最常见的原因是服务需求高和人员不足。

从表面上看,使用AI工具似乎是一种低垂的果实,可以为非常忙碌的职业提供帮助。AI已经在一些任务中发挥作用,例如处方准确性检查、临床决策支持和预约安排,以帮助药剂师减少重复性工作的负担,从而有更多时间直接照顾患者。

显而易见的是,AI带来的节省时间的好处是清晰且易于理解的。然而,不太明显且可能更技术性的是与AI解决方案相关的风险。

任何AI模型——包括大型语言模型——都可能产生“幻觉”。这些答案看起来基于上下文是正确的,但实际上包含错误信息。这是因为AI模型分析数据并生成模仿其源数据集输出的方式。AI模型不会自行验证其工作,这意味着用户仍需核实信息的正确性。如果AI用于访问临床信息,这可能会带来患者安全风险,并可能抵消任何节省时间的优势。

尽管有一些检查和平衡措施来监管临床环境中常规使用的AI系统,但在任何新技术投入实际应用之前,必须在药品和保健品监管局注册并符合医疗器械法规。这些法规要求公司通过临床证据证明设备的益处大于其风险,并达到其所声称的性能水平。

然而,由于AI的本质及其产生的幻觉,无论软件的用途如何,一定程度的错误仍然是不可避免的。那么问题来了,药剂师应该如何处理这些错误?

例如,医生的监管机构——英国医学总会(GMC)在其最新版的《良好医疗实践》中明确指出,医生“必须报告涉及医疗器械(包括软件、诊断测试和数字工具)的不良事件,这些事件可能危及患者或其他人的安全,或者有这种潜在风险”。GMC进一步澄清,这包括AI工具。

对于药剂师而言,目前还没有类似的指导。这就需要通用药剂师委员会及时灵活地监管药剂师职业使用AI工具的情况,制定明确的指南以保护患者安全和专业责任。明确的指导将帮助药剂师了解他们在使用AI时的专业责任,而主动的监管将确保AI增强药剂师在患者护理中的作用,而不是造成额外的责任。

任何延误都可能导致监管机构处于被动状态,就像在线药房监管一样,只能在问题发生后做出反应,而不是事先预防。


(全文结束)

大健康
大健康