人工智能可提升农村医疗服务质量但新兴技术引发持续担忧AI could enhance rural healthcare delivery, but concerns linger with the emerging technology | The Enterprise Journal

环球医讯 / AI与医疗健康来源:www.enterprise-journal.com美国 - 英语2025-12-09 21:17:57 - 阅读时长5分钟 - 2042字
本文深入探讨人工智能在美国农村医疗领域的应用潜力与现存隐忧。专家指出算法偏见和数据透明度问题可能加剧医疗不平等,具体案例包括脉搏血氧仪对深肤色患者读数不准、肾功能评估中曾存在的种族调整标准导致非裔患者治疗延误。尽管虚拟护理和AI工具(如虚拟护士)有望缓解资源短缺,但心理健康聊天机器人已引发多起安全事故,如诱导青少年自杀的悲剧事件。文章强调需建立严格监管框架,在推进技术创新的同时确保医疗公平性,避免弱势群体被进一步边缘化,并呼吁解决农村医院资金短缺、医护人员不足等结构性问题以实现技术真正赋能。
人工智能农村医疗服务医疗公平算法偏见数据偏见虚拟护士可穿戴技术医疗差异虚拟护理慢性病管理心理健康医疗AI模型
人工智能可提升农村医疗服务质量但新兴技术引发持续担忧

人工智能有望在美国医疗未来发展中发挥重要作用,但专家担忧算法透明度不足和数据偏见可能影响AI模型的公正性。

医疗倡导者指出,密西西比州居民,尤其是农村地区居民,在获取医疗服务方面面临多重障碍。诸多因素共同作用,加之该州许多医院 reportedly 面临资金、人员和设施短缺问题。远程医疗被视为解决部分问题的潜在方案,倡导者认为人工智能可在促进民众健康方面发挥作用。

美国医疗体系存在显著差异,尤其在不同人口群体中表现突出。英联邦基金(Commonwealth Fund)总裁何塞·贝坦科尔特博士(Joseph Betancourt)表示,个人健康结果主要取决于遗传基因、居住地、收入水平、运动习惯、饮食结构、教育程度及医疗资源可及性。

“我们深知在种族差异背景下,少数族裔社区更易处于这些社会驱动因素的不利端,在诸多方面处于劣势,”贝坦科尔特补充道,“同时需注意,出于多种原因,少数族裔的医疗保险覆盖率往往较低。”

二十年医疗数据和数千篇论文的证据表明,人们接受的医疗服务存在肤色差异。例如贝坦科尔特指出,用于测量指尖血氧水平的小型设备——脉搏血氧仪,对深肤色患者的读数准确性存在困难。

斯坦福大学医学院教授蒂娜·埃尔南德斯-布萨德博士(Tina Hernandez-Boussard)描述了另一案例:估算肾小球滤过率(eGFR)计算器曾对非裔美国人采用不同标准。该工具用于测量肾功能,过去基于“非裔美国人肌肉量更大因而肾功能不同导致肌酐水平更高”的旧有认知进行调整。

“正因旧版计算器中的种族调整参数,非裔患者必须比非非裔患者出现严重得多的肾功能损伤,才能获得同等水平的治疗或符合高级治疗资格,”埃尔南德斯-布萨德解释道。

她表示这些因素导致患者治疗延误和肾移植等待名单准入延迟。如今种族因素已从算法中移除,转而聚焦生物标志物,从而消除了该环节的种族差异。埃尔南德斯-布萨德补充指出,鉴于2020年人口普查显示“混血”是增长最快的类别,用种族作为健康风险指标的依据愈发薄弱。

贝坦科尔特承认,近二十年来医疗公平取得积极进展,但现存问题仍可能阻碍当前及未来医疗AI模型的无偏见构建。他认为新研发的可穿戴技术或有助于缓解部分差异。

“我坚信在消除算法中已存在的偏见时,我们需同时思考这些技术如何有效助力解决差异问题,”贝坦科尔特强调,“这不仅关乎有色人种——导致差异的诸多挑战以不同比率影响着所有人。”

医疗技术进步蕴含重大潜力。贝坦科尔特补充道,若实施得当,技术可帮助医护人员克服语言障碍、缓解心理健康患者的社交孤立,并辅助慢性病管理。

人工智能还催生了虚拟护士的可能性——屏幕显示的护士形象能以患者健康认知水平与之互动。与部分人类医护人员不同,这些虚拟形象永不疲倦于解答患者问题。

“我们应思考如何将这些技术部署以填补当前护理缺口,”贝坦科尔特表示,“双管齐下才能真正实现进步,确保无人掉队,同时充分利用技术优势解决医疗差异。”

若技术得以恰当实施,将惠及密西西比州居民,尤其是农村地区民众。

“全国范围内,我们必须正视农村医院和医疗中心面临的资金挑战,以及日益恶化的医护人员短缺问题,”贝坦科尔特继续说道,“因此,技术在此领域的应用前景确实值得期待,我坚信它将在未来发挥关键作用。”

新冠疫情已证明虚拟护理的显著价值。然而即便最优的虚拟护理也无法满足所有健康需求,患者仍需医生进行体格检查以获得更有效治疗。

“某些情况下患者需要外科医生或紧急空运,”贝坦科尔特描述道,“这仅靠技术无法解决。”

他指出,机器人外科医生或可在未来为农村提供服务,但该技术仍需数年发展。AI在心理健康领域的应用也面临挑战,埃尔南德斯-布萨德表示相关技术尚处开发阶段。使用聊天机器人提供心理健康服务存在安全隐患,因其设计未将用户安全置于首位。

“我们必须清醒认识这些工具可能造成的危害,”埃尔南德斯-布萨德强调。

由于聊天机器人并非为提供安全心理健康建议而设计,且不受FDA治疗师规范约束,多地已发生悲剧事件。例如今年4月加利福尼亚州16岁男孩自杀事件中,其父母发现孩子曾使用ChatGPT。调查显示该机器人不仅劝阻他与父母沟通,甚至提供自杀遗书代写服务。

“此类聊天机器人导致严重伤害乃至死亡的悲剧不仅发生在加州,”埃尔南德斯-布萨德描述道,“全国多地均有案例,因此建立有效防护机制对未来发展至关重要。”

专家还担忧用于构建AI模型的数据存在选择性偏差。《STAT News》健康科技记者凯蒂·帕尔默(Katie Palmer)指出,大量数据因X光/CT扫描分辨率过低或全球医疗实践差异而未被纳入AI模型训练。

帕尔默强调数据类型透明度不足,导致难以精准定位AI应用中的不良结果。此外,患者常在不知情情况下接受AI辅助诊疗。例如医患对话录音设备生成的AI转录文本会自动录入健康档案用于报告撰写。

“患者并不总知晓AI正影响其诊疗过程,”帕尔默认为。

【全文结束】

大健康
大健康