人类站在十字路口:医学中人工智能的伦理影响Humanity at the Crossroads: Ethical Implications of AI in Medicine - The Hospitalist

环球医讯 / AI与医疗健康来源:www.the-hospitalist.org美国 - 英语2026-01-14 09:45:41 - 阅读时长9分钟 - 4299字
本文深入探讨了人工智能在医疗领域应用所面临的多重伦理挑战,详细分析了算法偏见如何加剧医疗不平等、患者知情同意权在AI时代的重要性、监管框架的建立需求、责任归属的复杂性以及AI"幻觉"对医疗决策的潜在危害,同时强调了在技术革新浪潮中维护医患情感连接与伦理原则的必要性,为医疗AI的负责任发展提供了全面思考框架,特别关注了LGBTQIA+群体和少数族裔患者可能面临的系统性偏见问题,以及老年医生群体在适应新技术时的独特挑战。
医学人工智能伦理影响算法偏见知情同意患者自主权数据隐私负责任部署医疗公平AI幻觉医疗伦理老年患者医疗结果
人类站在十字路口:医学中人工智能的伦理影响

随着人工智能(AI)系统在现代生活中的突破,将这项技术纳入医学和医疗保健领域的压力日益增大。放射学、急诊医学和远程医疗等领域在将AI实施到诊断方法和治疗算法方面已取得显著进展,但往往以牺牲医学伦理为代价。自动化的自智能系统无法理解患者同意、数据隐私以及与医疗领域相关的隐性偏见等重要概念。本文探讨了随着医疗行业继续采用基于AI的方法,这些敏感问题将变得更加普遍。

揭示算法中的偏见

人工智能已在医学的多项研究中被用于发现高度多样化的临床数据集中的隐藏疾病模式。AI模型可用于识别、表征和预测疾病,这可能会改变严重疾病的进程。所有AI系统都严重依赖输入初始算法的历史数据来生成新协议和方法。因此,这些数据中的固有偏见可能会变得更加明显,导致结果有缺陷。

例如,历史数据表明,在医疗系统中,LGBTQIA+社区的患者以及某些民族和种族社区的患者经历着高比率的不平等。种族定性、性别差异等隐性问题经常渗透到医疗社区中。纳入这些数据可能导致AI系统夸大这些偏见并恶化医疗结果。如果在初始实施过程中考虑到这些偏见,AI可以比传统方法更快地改善结果。医疗保健中的不平等在近几年引起了越来越多的关注,而AI的使用可能对整体护理质量产生广泛影响。

AI算法偏见在同行评审文献中报道不佳。du Toit等人发表的一项研究指出,在针对和谐理解机器学习分析网络(HUMANE)检查表评估的63篇关于高血压的文章中,没有一篇解决了算法偏见问题,仅有10%将其提及为风险。当前的AI和机器学习文献也未解决其他专业领域的这一差距。因此,医疗保健和AI专业人员必须制定严格措施来识别和纠正此类算法偏见。确保AI为不同患者群体提供非歧视性和公平结果需要持续监测和验证。随着过去几十年中65岁以上执业医生人数的增长,确保算法决策的透明度和简易性至关重要,以确保这一人群的接受度提高。此外,实施HUMANE等检查表有助于培养批判性思维文化并积极缓解偏见。这提高了学术论文的质量,并确保了有利于每个人的AI的负责任发展。

通过知情同意赋权患者

患者自主权是医学伦理的基石,在AI时代变得更为关键。患有多种慢性健康状况的老年患者面临独特挑战。这些患者中的许多人对计算机和基于AI的方法持怀疑态度,并直接拒绝使用。一个伦理系统确保在实施前向这些患者教育有关实施AI工具的益处。如果患者选择,也应该有选择退出这些方法的选项。这种透明的过程增加了信任,因为患者在决定其医疗需求时有选择权。许多患者担心其医疗信息的安全性和隐私,任何教育材料都必须解决这一重要问题以缓解潜在担忧。

人工智能技术的负责任部署

像美国食品药品监督管理局(FDA)这样的监管机构在AI应用的监管框架中起着关键作用。AI的监管环境是动态的,实施保障措施、建立道德AI开发指南以及防止滥用至关重要。必须使用综合框架来评估对医疗系统和社会的整体影响。由于患者福利始终是优先考虑的事项,因此需要明确的指南来确保AI应用符合严格的道德标准。各种组织使用不同的数据收集系统,这也可能在操作活动和标准化方面造成障碍。此外,对AI系统的频繁评估和审计有助于保持透明度和问责制。

责任问题

责任问题,特别是在不良结果方面,提出了复杂的挑战。虽然选择和应用AI技术的尽职调查的主要责任落在医生和医疗保健从业者身上,但这些AI系统的制造商和开发人员也必须承认并接受他们在确保产品安全性和有效性方面的作用。AI特定责任保险的出现为管理可能因AI在医疗保健中整合而产生的医疗事故索赔提供了一种新解决方案,反映了在先进技术时代医疗法律和责任不断变化的格局。

幻觉

此外,AI在医疗保健中的实施必须解决AI幻觉或AI错误信息的问题,这可能会进一步使有效部署复杂化。AI错误信息指的是AI生成的内容并非基于真实数据,而是由算法通过推断现有训练数据产生的。医疗保健提供者需要意识到这个问题,并在承认AI无法替代医疗保健从业者提供的个性化和个性化护理的同时保持谨慎。

最后,临床医生必须具备应对AI使用可能引发的伦理挑战所需的技能。医学院、住院医师项目和CME课程中的培训计划应强调AI的负责任使用和道德决策,同时在医疗社区中培养道德意识文化。

情感与医疗中人工智能的伦理使用

在医疗保健中使用AI不仅仅是一个技术转变,而是一个与人类情感领域深刻交织的转变。伦理AI实施对于减轻潜在伤害和维护患者信任至关重要。一个重要的关注领域是AI可能对患者焦虑或恐惧产生的影响。例如,引入AI驱动的诊断工具可能会导致患者痛苦增加,如果未以敏感和同理心的方式进行沟通。这些系统的设计必须考虑情感细微差别,提供患者可以理解的解释,并以支持性方式解决焦虑。

此外,确保AI算法中的公平性和公正性是一个伦理义务,直接影响情感健康。如果这些系统沿种族、性别或社会经济线延续偏见,后果可能很严重。如果边缘化患者认为医疗系统对他们有偏见,他们可能会经历压力增加、不信任和非人化感。严格的偏见测试和AI性能的持续监测至关重要,同时培养从业者对潜在算法缺陷的认识。

在AI驱动的医疗保健环境中保持富有同理心的人际联系至关重要。必须在AI的能力和人类医疗保健从业者在解决情感需求方面不可替代的作用之间保持明确区分。AI可以用来简化任务,让提供者与患者建立更深入的治疗关系。通过促进人类同理心与AI效率之间的合作,医疗保健不仅可以变得更加高效,还可以更具情感共鸣——创建一个关注整个人而不仅仅是其医疗数据的系统。

随着AI继续改变医疗保健格局,以对伦理的敏锐关注来驾驭这一阶段至关重要。解决算法中的偏见、获得患者的知情同意以及负责任地部署AI技术是确保实现医疗保健中AI的益处而不损害基本伦理原则的关键步骤。通过积极参与伦理考量,医疗行业可以充分利用AI改善患者结果,同时保护医学的价值观。

Dr. Dhillon

Dr. Grewal

Dr. Buddhavarapu

Mr. Virmani

Dr. Surani

Dr. Kashyap

Dr. Dhillon是马里兰大学巴尔的摩华盛顿医学中心Glen Burnie分院Adfinitas住院医院团队的医学副主任,也是马里兰大学医学院巴尔的摩分校医学副教授。Dr. Grewal是佛罗里达州立大学医学院Pensacola分校的放射科医生和助理教授。Dr. Buddhavarapu是亚利桑那州Mesa市Banner Baywood医学中心、Banner健康的医院医生。Mr. Virmani是谷歌的高级云数据架构师。Dr. Surani是德克萨斯A&M大学Corpus Christi分校医学和药理学兼职临床教授。Dr. Kashyap是宾夕法尼亚州York市WellSpan健康的研究医学主任,也是明尼苏达州Rochester市梅奥诊所麻醉学副教授。

参考文献

  1. Grewal H, Dhillon G, 等. Radiology gets chatty: the ChatGPT saga unfolds. Cureus. 2023;15(6):e40135.
  2. Farhud DD, Zokaei S. 医学和医疗保健中的人工智能伦理问题. Iran J Public Health. 2021;50(11):i-v.
  3. Yoon JH, Pinsky MR, Clermont G. 重症监护医学中的人工智能. Crit Care. 2022;26(1):75.
  4. Bohr A, Memarzadeh K. 医疗保健应用中人工智能的兴起. Artificial Intelligence in Healthcare. 2020:25-60.
  5. Dhillon G, Grewal H, 等. 医院的性别包容护理工具包. Lancet Reg Health Am. 2023;26:100583.
  6. Riley WJ. 医疗差距:医疗保健获取、质量和可负担性方面的差距. Trans Am Clin Climatol Assoc. 2012;123:167-72.
  7. du Toit C, Tran TQB, 等. 高血压机器学习研究的调查与评估. J Am Heart Assoc. 2023;12(9):e027896.
  8. Dellinger EP, Pellegrini CA, Gallagher TH. 老年医生和医学专业:综述. JAMA Surg. 2017;152(10):967-71.
  9. Varelius J. 医学伦理中自主权的价值. Med Health Care Philos. 2006;9(3):377-88.
  10. Tinetti M, Dindo L, 等. 面向患有多种慢性疾病的老年人的健康优先事项一致决策的挑战和策略. PLoS One. 2019;14(6):e0218249.
  11. Fritsch SJ, Blankenheim A, 等. 人工智能在医疗保健中的态度和认知:一项针对患者的横断面调查. Digit Health. 2022;8:20552076221116772.
  12. Vokinger KN, Gasser U. 美国和欧洲医学中AI的监管. Nat Mach Intell. 2021;3(9):738-9.
  13. Verma RK, Dhillon G, 等. 睡眠医学中的人工智能:现状和未来. World J Clin Cases. 20236;11(34):8106-10.
  14. Stern AD, Goldfarb A, 等. AI保险:责任保险如何推动医疗保健中人工智能的负责任采用. NEJM Catalyst. 2022.3(4).
  15. Hatem R, Simmons B, Thornton JE. 呼吁解决AI"幻觉"以及医疗保健专业人员如何减轻其风险. Cureus. 2023;15(9):e44720.
  16. Char DS, Shah NH, Magnus D. 在医疗保健中实施机器学习——解决伦理挑战. N Engl J Med. 2018;378(11), 981-3.
  17. Obermeyer Z, Powers B, 等. 解剖用于管理人群健康的算法中的种族偏见. Science. 2019;366(6464):447-53.
  18. Mohanasundari SK, Kalpana M, 等. 人工智能能否取代独特的护理角色?Cureus. 2023;15(12):e51150.

【全文结束】

大健康
大健康