人工智能正在以我们从未想象过的方式颠覆医疗保健系统。无论是帮助医生进行诊断、优化患者护理体验,还是处理诸如账单和文书工作等行政任务,人工智能已经发挥了重要作用。但有一个问题一直萦绕在我的脑海中,尤其是在听到人们谈论将人工智能推向更高层次时:我们如何使人工智能实现自主?我们应不应该这样做?答案并不简单,但有一点是明确的:我们需要合成数据来开始这一进程。
人工智能在医疗保健中的现有应用
新冠疫情对医疗保健行业产生了显著影响,其中一个较为隐蔽的方面是广泛使用人工智能辅助CT扫描。一项研究显示,这些人工智能系统正确识别了297名患者中68%的阳性结果。然而,所有279名患者都被人类专业人士归类为阴性结果。加州大学洛杉矶分校的研究人员最近开发了一种人工智能模型,可以读取MRI图像,其准确性可与最资深的专家相媲美。这类视觉人工智能可以帮助外科医生决定手术是否必要,如果必要的话,哪种手术程序能给患者带来最佳的成功机会。这并不是未来的概念,而是正在发生的现实。
但问题在于:仅仅因为人工智能可以自主做出决策,并不意味着它应该这样做。当然,人工智能高效、快速、准确。但在医疗保健领域,速度或精度并不是最高目标。这里存在一个需要人性化处理的因素,很多事情并不是屏幕上数字那么简单。因此,我坚信无论人工智能变得多么先进,都需要有人类监督。医疗保健结合了数据与同理心。
为什么我们现在需要合成数据
美国食品药品监督管理局(FDA)用于调查医疗器械的过程并未设计用于调查自适应机器学习或人工智能软件的安全性。他们正在努力解决这个问题,但尚未制定统一的标准流程来批准此类技术,通常依赖于上市前审查来评估人工智能驱动产品的安全性。
在训练新的AI模型时,这是一个关键问题。我们几乎已经用尽了所有可用的真实世界医疗数据,而像HIPAA这样的隐私法律使得收集更多数据变得困难。那么,我们接下来该怎么做呢?
合成数据模仿真实世界的医疗数据,但不使用真实患者的信息。这意味着我们可以在不涉及敏感个人数据的情况下训练AI系统,使其变得更强大。经过FDA批准,这一过程可以大大加快新医疗AI工具的开发和审批速度。我一直在与FDA合作,争取合成数据在未来应用中的批准,但这是一个缓慢的过程。
人工智能自主性的利与弊
当人工智能运作良好时,它是惊人的。但如果它出错呢?这才是真正的问题。我们谈论的是医疗保健,错误可能带来改变人生的后果。人工智能可能99%的时间都是正确的,但那1%的错误呢?
我不认为人工智能应该被完全放任,尤其是在关键的医疗决策中。是的,人工智能可以提供帮助,但我们需要人类参与其中,以便在技术可能忽略的边缘案例中发现问题。我们在谈论的是真实的生命,是人。人工智能应该支持医生和护士,而不是取代他们。我们需要在人工智能擅长处理大量数据和人类擅长解读患者的细微反应、展现同情心以及理解诊断和治疗之间的灰色地带之间找到平衡。
合成数据如何帮助我们实现这一目标
合成数据是使人工智能安全应用于医疗保健的一部分解决方案。它让我们能够在受控和无风险的环境中测试AI系统。没有真实的患者参与,我们可以在AI与真实病例互动之前对其进行各种测试。我已经看到这个过程的实际效果,我可以告诉你,它确实有效。我们使用合成数据进行了数万次模拟。如果AI在这些测试中出错,我们可以在成为真实问题之前修复它。当任何类型的AI进入医院环境时,它已经被微调和验证。这是我们希望在让AI承担更多责任之前所需的水平的安全性和可靠性。
人工智能在医疗保健领域的未来:下一步是什么?
那么,未来会是什么样子?人工智能将在医疗保健领域继续发展。它已经在处理过去需要整个团队才能完成的任务,如预约设置和影像审查,并且只会进一步扩展。但我们需要谨慎对待人工智能的发展程度。人工智能在某些方面(如诊断特定疾病和协助手术)可能比人类更优秀,但这并不意味着我们应该将人类排除在外。
合成数据将是推动人工智能安全发展的关键部分。但只是其中一部分。我们仍然需要强有力的道德准则和真正的承诺,确保人工智能是为人类服务的工具。这不仅仅是关于人工智能能做什么,而是关于我们希望如何使用它,以及希望人类在医疗保健中扮演什么角色。
(全文结束)


