人工智能已不再是医疗保健领域的未来实验,它已深度融入各类医疗环境与系统,影响着从临床决策到病历记录的方方面面。
随着人工智能成为医学的永久组成部分,德克萨斯A&M医疗保健准入研究所专家指出,其日益扩大的角色引发关键问题:围绕它的法律、伦理及人文体系是否已准备好应对其对患者预后及社区整体健康结果的影响。
这一议题正是该研究所使命的核心——汇聚医疗与法律专业人士,共同解决阻碍个人和社区获取及时有效医疗服务的障碍。这家成立于2022年的多学科研究所位于沃思堡,旨在重新激发政策制定者、利益相关方与公众关于医疗障碍的对话。
如今,人工智能几乎触及医学的每个角落,从医患互动、临床医生的文书负担到医学影像和诊断。这些工具能快速处理海量数据并持续学习,有望提升效率、减轻行政负担,使医护人员有更多有意义的时间陪伴患者。
"无论是人工智能素养、社区获取技术的途径,还是理解我们对正在取代人际关系的工具所提要求的本质,研究所关注的核心问题是:如何设计系统和保障措施,确保人工智能的部署合乎伦理且公平,"该研究所教育主任布林·埃斯普林表示。
研究所执行主任兼执业律师基根·沃伦指出,她的研究长期聚焦影响健康的非医疗因素,而人工智能本身正日益成为其中之一。她特别提到生成式人工智能在行政与法律流程中的增长应用——算法现已被用于协助医疗补助(Medicaid)覆盖范围判定、预先授权和资格决策。在工伤赔偿索赔和儿童福利案件中,人工智能工具也帮助判断伤害是否符合福利条件或儿童能否留在原家庭。
沃伦警告,在这些情况下,人工智能工具中的算法偏见可能加剧弱势群体在医疗服务获取和质量方面的差距。"若在不完善的系统上构建新技术,它不会修复裂缝,而是会扩大它们,"她说。
环境监听工具——能实时记录、转录并总结患者就诊过程的设备——也正被广泛用于生成医疗记录。这些文件在残疾索赔、消费者欺诈案及家庭法庭诉讼中均具有法律效力。沃伦提醒,尽管这类技术承诺提升效率,但自动医疗记录可能包含错误,引发对其证据效力的质疑。
沃伦强调,当人工智能系统失效时——例如错误拒绝保险覆盖——负担几乎总是落在患者身上。缺乏审慎部署的情况下,自动化可能将临床记录错误转化为阻碍医疗服务乃至法律救济的障碍,使患者不得不自行处理后续纠纷,并承担未解决法律需求带来的健康后果。
与此同时,沃伦肯定人工智能已在推动以患者为中心的护理取得实质性进展,例如能通过骨骼断裂方式评估伤害是否源于人际暴力的放射学工具。埃斯普林补充道,人工智能系统正展示"显著的预测准确性",包括在识别深度脑刺激治疗候选人方面。
埃斯普林表示,人工智能虽能提供高度精准的健康信息,却使患者理解和同意治疗的过程变得复杂。患者可能越来越多地在与生成式AI系统交互后而非经认证医生指导下做出重大医疗决策,形成影响信任与选择的技术依赖关系。当知情同意由自动化工具塑造——尤其是那些嵌入偏见或倾向于迎合用户预期的工具——确保患者充分理解决策所基于的风险与收益将变得更为困难。
作为伦理学家,埃斯普林认为这些挑战使人工智能成为审视"道德颠覆"的契机。"这是研究所重新构想整个护理团队的机遇,首先从我们自身开始,"她说。"我们也是患者,塑造并被所处社区塑造,而非置身事外的旁观者。研究所提供的人文视角在于,确保关系中的互惠精神能更有意识地融入医疗体系。面对人工智能,我们并不畏惧:我们正积极拥抱它。当对话陷入停滞时,有时需要颠覆——或新声音的介入——才能推动对话向前发展。"
【全文结束】

