医疗保健中的人工智能:机遇、挑战与基础

AI in Healthcare: Opportunities, Challenges, and the Basics - Student Services and Academic Advising

美国英语人工智能与医疗健康
新闻源:unknown
2025-09-22 18:50:55阅读时长6分钟2756字
医疗保健人工智能健康科学压疮预测医疗AI风险AI正面价值护士参与AI学生AI准备患者数据AI与护理协同

医疗保健领域的人工智能正深刻改变社会工作方式。这对健康科学意味着什么?护理学院副教授珍妮·奥尔德伦将解析医疗AI的基础知识(是否类似ChatGPT?)以及护士如何与这一技术“副驾驶”协同工作。她通过自身研究案例,揭示AI应用的激动人心前景与需警惕的风险领域,并分享其在美国海军服役期间首次发现医疗数据力量的经历。

James Sherpa: 下期《野马故事》节目预告。

珍妮·奥尔德伦: 谷地所有医疗中心的电子健康记录系统都在使用AI。我非常重视AI的“额外监督”作用,认为它非常实用且有帮助。

凯瑟琳·希茨: 大家好,我是护理学院的凯瑟琳·希茨,欢迎收听博伊西州立大学健康科学学院《野马故事》。今天我对话护理学院副教授珍妮·奥尔德伦博士。

珍妮·奥尔德伦: 你好凯瑟琳,感谢邀请。

凯瑟琳·希茨: 感谢参与。请先谈谈您在AI与护理领域的背景。

珍妮·奥尔德伦: 我专注于压疮(又称褥疮)研究。核心临床问题是:如何预判哪位患者将发生压疮?因为这能让我们提前实施预防干预。在探索该问题时,我发现预测临床事件的最佳方法之一正是人工智能。

凯瑟琳·希茨: 您是如何将人工智能应用于这个问题的?

珍妮·奥尔德伦: 人工智能的本质是计算机从数据中学习。我研究的重症患者通常在电子健康记录中产生海量数据——每位患者可能包含数十万乃至数百万条临床轨迹数据点,涵盖从入院前、住院期间到发生压疮的全过程。AI擅长处理这些数据:我们提供包含压疮患者与非压疮患者的混合数据集,输入机器学习算法(即AI)。算法通过迭代猜测与学习,自主掌握预测压疮的能力。这属于监督式机器学习——算法根据“是否发生压疮”的结果构建预测模型。我利用电子健康记录数据开发压疮预测模型,但AI在医疗领域的应用远不止于此。

凯瑟琳·希茨: 医疗AI与ChatGPT这类AI有何区别?

珍妮·奥尔德伦: 本质相同——计算机都从数据学习。但医疗AI通常有明确目标:例如用电子健康记录数据预测心脏病风险或压疮风险。医学影像识别也是常见应用,深度神经网络能辅助诊断X光片或心电图结果,精准识别肿瘤等特定问题。这类专用AI已在医院部署。而ChatGPT等大语言模型工作原理不同:它们通过海量数据预测下一个词,属于自然语言处理技术。虽然不针对特定任务(如找肿瘤),但能生成类人文本。这类模型未来可能用于患者教育或门户沟通——当然必须谨慎使用。

凯瑟琳·希茨: 人们常担忧AI可能引发学术不端等问题。医疗领域有哪些需警惕的风险?

珍妮·奥尔德伦: 绝对存在风险。以ChatGPT为例,它不具备临床判断力——无法替代人类决策者。它可以是辅助工具,生成护士能用作模板的参考内容,但完全依赖AI非常危险,因为它缺乏人类的临床判断。

凯瑟琳·希茨: 您指的临床判断具体是?

珍妮·奥尔德伦: 正是决策能力。当我建议患者进行某项检查或治疗时,必须提供决策依据。而AI无法解释推理过程,几乎全是“黑箱”:答案虽常正确,但因无法追溯推导逻辑,使用便存在风险。AI常会犯错,尤其当应用于训练数据稀少的患者群体时。例如医疗AI依赖患者数据开发,若农村居民、少数族裔或罕见病患者在训练集中占比过低,该模型用于这些群体就可能给出危险错误答案。此时人类判断至关重要——我们能理解数据缺失的上下文,计算机则不能。

凯瑟琳·希茨: 护士科学家如何应对训练数据偏差?

珍妮·奥尔德伦: 确保数据代表性是关键。针对百岁老人等稀有群体,可采用“合成少数类过采样”等统计技术,生成符合特征的模拟数据。但这些方法都不完美,最终仍需谨慎使用:AI应作为参考工具而非决策依据。例如算法提示“应采取某方案”,可视为思考起点,但绝不能替代人类判断。

凯瑟琳·希茨: 您提到的“监督式AI”是否指人类监督其工作?

珍妮·奥尔德伦: 监督式指我们为AI设定特定任务(如识别压疮风险)。但广义上人类必须全程监督AI。我曾开发压疮预测算法时发现异常:某些重症监护室的高危患者(如血压极低、心率极快、血氧饱和度极低者)被判定为低风险。深入分析发现,因这些患者已死亡,算法仅看到“未发生压疮”的结果,却忽略“死亡”这一竞争性风险因素。这凸显人类必须介入:没有上下文理解,AI会得出危险结论。类似案例比比皆是。

凯瑟琳·希茨: 抛开风险,AI有哪些应积极拥抱的正面价值?

珍妮·奥尔德伦: 我大力支持AI,因其能提供差异化视角。人类认知能力有限,护士需同时监测生命体征、安抚患者、协调家属、处理通讯、准备药物——任务切换频繁。AI可成为患者的“额外眼耳”:现有算法能敏锐捕捉临床恶化的早期征兆(如心率微升、尿量略降),及时提醒护士“请查看艾伦夫人”,这在护士分身乏术时极为关键。我认为AI应是临床护理的实用助手。

凯瑟琳·希茨: 这确实很有帮助。

珍妮·奥尔德伦: 另一例证是谷地所有医疗中心的电子健康记录系统:AI会实时警示药物冲突、过敏反应或禁忌症。这类任务既能提升患者安全,又弥补了人类无法同时处理多任务的局限。

凯瑟琳·希茨: 人类会疲劳,机器则不会。

珍妮·奥尔德伦: 正是如此!

凯瑟琳·希茨: 护士在AI开发与实施中应扮演什么角色?

珍妮·奥尔德伦: 这正是我热衷的领域。算法开发团队必须包含护士——我们理解数据产生的上下文。以重症监护室为例:血气分析值常纳入机器学习模型,但并非所有患者都需这项有创检测。当算法将缺失值视为“无数据”时,护士却明白“未检测”本身即重要信息——说明患者呼吸问题不严重。作为数据生产者,护士能洞察这些关键背景。我坚信每个AI开发团队都应配备执业护士。

凯瑟琳·希茨: 护士如何加入这些团队?

珍妮·奥尔德伦: 医院数据科学团队正意识到:含临床专家的算法效果更佳。护士可主动联系团队,表明兴趣。许多机构会安排临床人员定期参与数据项目。

凯瑟琳·希茨: 学生该如何为AI时代做准备?

珍妮·奥尔德伦: 后疫情时代的护理学生正站在AI变革的临界点。首要任务是认清AI的优劣势:商业包装精美的算法绝不能替代护士。在算法无法像护士般解释临床决策前,我们绝不妥协。学生需掌握“黑箱算法”概念并坚守原则,同时学习将AI作为工具——例如练习向ChatGPT编写提示词。但切记:绝不可输入患者数据,因其不安全且会进入训练库。

凯瑟琳·希茨: 您如何走上研究患者数据与AI的道路?

珍妮·奥尔德伦: 15年前在伊拉克安巴尔省担任直升机护士时,我目睹数据拯救生命的实例:多名海军陆战队员因股动脉枪伤身亡。上报数据后,专家发现该区域频发同类损伤。经咨询枪炮军士,我们意识到士兵跪姿集会时股动脉暴露。发布禁令后,此类伤亡彻底消失。这让我坚信:数据模式往往揭示可行动方案。个体数据只是故事,但模式能改变护理实践。

凯瑟琳·希茨: 这与您提到的AI忽略多重风险患者的情况完美呼应。

珍妮·奥尔德伦: 是的。作为20年资历的重症护士,我深知自身局限——曾犯过用药错误、漏判患者状况。因此我珍视AI的“额外监督”作用,它能后台持续监测,百利而无一害。

凯瑟琳·希茨: 如同AI也在为我们把关。

珍妮·奥尔德伦: 确实是伙伴关系。我视AI为护士的“副驾驶”:我们是掌舵的飞行员,AI则是得力助手。

凯瑟琳·希茨: 非常感谢您今天的分享。

珍妮·奥尔德伦: 荣幸之至。

James Sherpa: 感谢收听《野马故事》。下期节目将探讨神经学与运动机能学的动态交互。敬请期待。

鲍勃·伍德: 我们能理解人体生理机制及治疗策略的影响,也深知缺乏身体活动的负面后果。本科阶段,你应创造独特且有意义的故事,引发目标人群的共鸣。

【全文结束】

声明:本文仅代表作者观点,不代表本站立场,如有侵权请联系我们删除。

本页内容撰写过程部分涉及AI生成(包括且不限于题材,素材,提纲的搜集与整理),请注意甄别。