人工智能正逐步融入我们生活的方方面面,医学领域也不例外。近年来,AI在医疗领域得到广泛应用,特别是在行政支持、诊断和影像学方面。为了深入了解,GBH《晨间新闻》主持人马克·赫兹采访了麻省理工学院计算机科学教授玛齐耶·加塞米,探讨AI在医学中日益重要的地位所蕴含的机遇与风险。以下是经轻微编辑的访谈实录。
马克·赫兹:首先需要澄清概念。我们讨论的是大型语言模型(LLMs)吗?
玛齐耶·加塞米:LLMs确实是当前流行的机器学习模型之一。其普及源于面向公众的开放接口——若要操作其他AI模型,通常需要专业知识。这种开放接口使LLMs备受瞩目,但我们实际讨论的是包括LLMs在内的所有深度学习模型。
赫兹:您的研究揭示了输入医疗AI的数据可能引发问题。具体存在哪些问题?根源何在?
加塞米:问题与根源紧密相连。机器学习中存在"虚假相关"现象,即模型依赖数据中的捷径而非真实特征进行判断。例如,若远处看不清动物是狐狸还是狗,因身处城市公园就默认是狗——这利用了背景知识而非动物本身特征。医疗数据同样存在此类隐藏捷径。以美国为例,非裔美国人往往比其他群体更晚获得医疗服务,导致其肺炎确诊时影像特征通常更严重。AI模型无法识别"仅黑人患者呈现严重肺炎"这一关联的不合理性,反而学习到"黑人患者必须病得更重才会被诊断为肺炎"的错误模式。这种偏差在皮肤癌诊断等所有医疗领域普遍存在,根源在于训练数据反映了既有医疗流程中的系统性偏见。
赫兹:这是否属于"垃圾进,垃圾出"的情况?解决方案是获取更优质、更大量或更多元的数据吗?
加塞米:修复需多管齐下。理想情况是拥有展现完美医疗行为的数据集,但现实中不可能存在"完美医生在完美医疗体系"的范本。与其追求不切实际的完美数据,不如转变模型训练思路:我们当前优化模型以模仿人类行为的做法是否合理?或许应减少对海量无监督数据的依赖,更多注入人类专业知识与监督机制。
赫兹:具体如何实现这种转变?
加塞米:首先可构建行为黄金标准数据集,但这需要医生等专家投入大量精力标注关键医疗记录,明确哪些人类行为是理想且值得模型学习的。借助强化学习技术,我们能训练模型趋近理想行为而非简单复制现有行为。其次需思考政策层面的部署模式:医生希望AI如何辅助工作?是生成需人工修改的临床记录(如当前语音转文本系统),还是提供建议以优化记录流程或标记潜在错误?当前医疗AI部署过度侧重效率与成本节约,而非为医生创造更多患者互动空间或提升工具资源。我主张在数据收集、模型训练方法上变革,同时调整AI应用的重点领域。
赫兹:当前哪些医疗AI应用真正有益于医生并改善患者体验?
加塞米:自动化繁琐工作的初衷良好(如减少记录负担),但实际部署中尚未证实其能改善临床行为或患者预后。即便可能节省成本,这也不应是主要发力方向。最具潜力的领域是人类存在固有局限的场景,例如亚临床表现的早期乳腺癌检测。在子宫内膜异位症诊断(平均耗时漫长)或糖尿病等慢性病管理(需随病程调整多药联用方案)中,AI系统能显著加速精准治疗方案的生成,这正是值得重点投入的方向。
【全文结束】

