人工智能有望在美国医疗未来发展中发挥重要作用,但专家担忧算法透明度不足和数据偏见可能影响AI模型的公正性。
医疗倡导者指出,密西西比州居民,尤其是农村地区居民,在获取医疗服务方面面临多重障碍。诸多因素共同作用,加之该州许多医院 reportedly 面临资金、人员和设施短缺问题。远程医疗被视为解决部分问题的潜在方案,倡导者认为人工智能可在促进民众健康方面发挥作用。
美国医疗体系存在显著差异,尤其在不同人口群体中表现突出。英联邦基金(Commonwealth Fund)总裁何塞·贝坦科尔特博士(Joseph Betancourt)表示,个人健康结果主要取决于遗传基因、居住地、收入水平、运动习惯、饮食结构、教育程度及医疗资源可及性。
“我们深知在种族差异背景下,少数族裔社区更易处于这些社会驱动因素的不利端,在诸多方面处于劣势,”贝坦科尔特补充道,“同时需注意,出于多种原因,少数族裔的医疗保险覆盖率往往较低。”
二十年医疗数据和数千篇论文的证据表明,人们接受的医疗服务存在肤色差异。例如贝坦科尔特指出,用于测量指尖血氧水平的小型设备——脉搏血氧仪,对深肤色患者的读数准确性存在困难。
斯坦福大学医学院教授蒂娜·埃尔南德斯-布萨德博士(Tina Hernandez-Boussard)描述了另一案例:估算肾小球滤过率(eGFR)计算器曾对非裔美国人采用不同标准。该工具用于测量肾功能,过去基于“非裔美国人肌肉量更大因而肾功能不同导致肌酐水平更高”的旧有认知进行调整。
“正因旧版计算器中的种族调整参数,非裔患者必须比非非裔患者出现严重得多的肾功能损伤,才能获得同等水平的治疗或符合高级治疗资格,”埃尔南德斯-布萨德解释道。
她表示这些因素导致患者治疗延误和肾移植等待名单准入延迟。如今种族因素已从算法中移除,转而聚焦生物标志物,从而消除了该环节的种族差异。埃尔南德斯-布萨德补充指出,鉴于2020年人口普查显示“混血”是增长最快的类别,用种族作为健康风险指标的依据愈发薄弱。
贝坦科尔特承认,近二十年来医疗公平取得积极进展,但现存问题仍可能阻碍当前及未来医疗AI模型的无偏见构建。他认为新研发的可穿戴技术或有助于缓解部分差异。
“我坚信在消除算法中已存在的偏见时,我们需同时思考这些技术如何有效助力解决差异问题,”贝坦科尔特强调,“这不仅关乎有色人种——导致差异的诸多挑战以不同比率影响着所有人。”
医疗技术进步蕴含重大潜力。贝坦科尔特补充道,若实施得当,技术可帮助医护人员克服语言障碍、缓解心理健康患者的社交孤立,并辅助慢性病管理。
人工智能还催生了虚拟护士的可能性——屏幕显示的护士形象能以患者健康认知水平与之互动。与部分人类医护人员不同,这些虚拟形象永不疲倦于解答患者问题。
“我们应思考如何将这些技术部署以填补当前护理缺口,”贝坦科尔特表示,“双管齐下才能真正实现进步,确保无人掉队,同时充分利用技术优势解决医疗差异。”
若技术得以恰当实施,将惠及密西西比州居民,尤其是农村地区民众。
“全国范围内,我们必须正视农村医院和医疗中心面临的资金挑战,以及日益恶化的医护人员短缺问题,”贝坦科尔特继续说道,“因此,技术在此领域的应用前景确实值得期待,我坚信它将在未来发挥关键作用。”
新冠疫情已证明虚拟护理的显著价值。然而即便最优的虚拟护理也无法满足所有健康需求,患者仍需医生进行体格检查以获得更有效治疗。
“某些情况下患者需要外科医生或紧急空运,”贝坦科尔特描述道,“这仅靠技术无法解决。”
他指出,机器人外科医生或可在未来为农村提供服务,但该技术仍需数年发展。AI在心理健康领域的应用也面临挑战,埃尔南德斯-布萨德表示相关技术尚处开发阶段。使用聊天机器人提供心理健康服务存在安全隐患,因其设计未将用户安全置于首位。
“我们必须清醒认识这些工具可能造成的危害,”埃尔南德斯-布萨德强调。
由于聊天机器人并非为提供安全心理健康建议而设计,且不受FDA治疗师规范约束,多地已发生悲剧事件。例如今年4月加利福尼亚州16岁男孩自杀事件中,其父母发现孩子曾使用ChatGPT。调查显示该机器人不仅劝阻他与父母沟通,甚至提供自杀遗书代写服务。
“此类聊天机器人导致严重伤害乃至死亡的悲剧不仅发生在加州,”埃尔南德斯-布萨德描述道,“全国多地均有案例,因此建立有效防护机制对未来发展至关重要。”
专家还担忧用于构建AI模型的数据存在选择性偏差。《STAT News》健康科技记者凯蒂·帕尔默(Katie Palmer)指出,大量数据因X光/CT扫描分辨率过低或全球医疗实践差异而未被纳入AI模型训练。
帕尔默强调数据类型透明度不足,导致难以精准定位AI应用中的不良结果。此外,患者常在不知情情况下接受AI辅助诊疗。例如医患对话录音设备生成的AI转录文本会自动录入健康档案用于报告撰写。
“患者并不总知晓AI正影响其诊疗过程,”帕尔默认为。
【全文结束】


