随着人工智能(AI)在几乎所有行业中的使用持续增长,建立规范以确保该技术被伦理和负责任地使用变得尤为重要。在医学领域尤其如此,因为这里的错误可能关乎生死,且必须保护患者信息。
一组中风医生、研究人员和行业代表于3月28日在中风治疗学术产业圆桌会议上讨论了AI在中风临床试验设计中的当前使用和未来前景。该研究由辛辛那提大学的约瑟夫·布罗德里克博士领导,并于9月30日在《中风》杂志上发表了一篇文章,总结了该小组的讨论。
中风医生已经使用AI来辅助临床决策,特别是在分析大脑和血管影像时。它还能提醒医生关于临床试验的潜在参与者。
但随着这些以及其他AI扩展应用,布罗德里克和他的同事们强调了设计"人在回路中"系统的重要性,这些系统要求在AI模型的训练和使用中需要人类输入和专业知识。
把AI想象成一个学习骑自行车的幼儿。骑自行车是一项了不起的技能,但在学习过程中会有很多次跌倒(错误)。当孩子学习时,有一位专家,甚至有辅助轮来帮助支撑自行车是有帮助的。最终,孩子们确实能学会很好地骑自行车。
约瑟夫·布罗德里克博士,辛辛那提大学医学院教授、辛辛那提大学加德纳神经科学研究所高级顾问以及美国国立卫生研究院中风网络国家协调中心主任
布罗德里克和他的同事们比较了机器学习(ML)与生成式AI在中风应用中的使用。
机器学习使用结构化和人工整理的数据集来训练AI模型,以分类或预测被称为"真实情况"的结果。虽然用大型数据集训练这些模型需要更多的人力,但大多数机器学习可以使用标准计算能力高效完成。
"这些ML模型的一个主要优势是,它们的方法通常更具可解释性,决策过程更透明,因此可以被理解和追踪,这对医学验证和生物学合理性至关重要,"合著者写道。
生成式AI在经过互联网、书籍和期刊中的大量未标记文本训练后,再在更专业化的数据集上进行微调。这通常意味着在训练模型时需要较少的人工干预,但需要巨大的计算能力和电力。
"(生成式AI)模型本身有数十亿甚至数万亿个参数,但它们作为一个'黑箱'运行,使得很难完全理解特定输出是如何或为什么生成的,"合著者说。"大型语言模型的可解释性是当前研究的活跃领域。"
无论使用机器学习还是生成式模型,中风研究人员都需要积极确保数据集稳健,并考虑来自不同扫描仪制造商、机构和患者的数据,以提高泛化能力。
"如果我们使用不良或有限的数据,而人类专家不纠正这些不良数据或分类,AI可能会产生不准确和错误的建议,"布罗德里克说。"我最担心的是当AI在不良数据上训练并给出可能造成伤害的答案。"
研究人员还需要制定严格的协议和保障措施,以保护用于训练模型的患者信息的隐私,并符合健康保险流通与责任法案(HIPAA)规定。这可能像美国心脏协会等独立第三方在将数据输入AI模型之前集中收集匿名患者数据,或者仅使用来自每个单独机构的数据训练模型,然后更广泛地共享学习到的参数。
"患者隐私的保护代表了将临床数据用于医疗保健中AI训练的主要挑战,即使在不同国家之间共享去标识化的数据也因各国关于数据共享的不同法律而变得更加困难,"合著者写道。"新的模型开发方法有望解决其中一些隐私问题。"
布罗德里克表示,在人类开发和验证了稳健的中风AI模型后,潜在应用包括更好地识别潜在的试验参与者,用通俗语言向患者传达试验设计,将试验信息翻译成不同语言以供非英语患者使用,以及帮助确定每位患者的最佳治疗方案。
"我们已经谈论精准医学一段时间了,但AI是实现这一目标的重大进步,"他说。
除了AI,作者还讨论了新的临床试验设计,如平台试验,可以更高效地同时测试几个研究问题,并在旧问题得到解答时添加新问题。未来的主要焦点是实用性试验,其目的是评估当治疗被纳入常规临床护理而不是在理想条件下实施时的有效性。
通过比较现有治疗方法,将试验程序嵌入到正常的临床工作流程中,并使用电子健康记录中的数据,研究人员和组织可以降低与这些实用性试验相关的成本并简化其基础设施。实用设计有望增加试验成功、及时且经济地完成的可能性。
最后,中风研究社区需要更多的社区和患者参与。这应该包括来自一线医疗人员(急救医疗技术人员、转诊和接收机构的医生以及研究协调员)的意见,他们在临床试验中招募和治疗中风患者。
应该建立试验的共同目标,以最小化患者和研究者在试验参与中的负担,尽可能将试验参与扩展到社区环境,并迅速向患者、临床医生和公众传播试验结果。
"未来是光明的,我们将利用这些新工具在研究中取得巨大进步,"布罗德里克说。"与此同时,我们当前时代随着AI迅速扩展到我们日常生活中的真正考验是,在可能错误、有害或不准确的文字、图像和视频的海洋中识别准确的数据和真相。"
"火既可以烧毁房屋,也可以温暖身体或烹饪食物,"他继续说道。"AI是一场迅速蔓延的火焰,但我们才刚刚开始学习如何安全明智地最好地使用它。"
【全文结束】


