OUWB举办的生物医学伦理讲座探讨AI在医疗保健中的伦理问题Signature biomedical ethics lecture at OUWB addresses issues raised by AI

环球医讯 / AI与医疗健康来源:oakland.edu美国 - 英语2024-11-06 02:00:00 - 阅读时长5分钟 - 2070字
Oakland University William Beaumont School of Medicine(OUWB)举办年度生物医学伦理讲座,探讨如何在快速发展的AI技术中保持以患者为中心的伦理方法。
OUWB生物医学伦理讲座AI医疗保健伦理问题患者中心透明度偏见个性化医疗治理
OUWB举办的生物医学伦理讲座探讨AI在医疗保健中的伦理问题

Oakland University William Beaumont School of Medicine(OUWB)最近举办了一场活动,重点讨论了在快速发展的AI技术中如何保持以患者为中心的伦理方法。10月1日在Birmingham的Townsend Hotel举行的第7届Ernest和Sarah Krug生物医学伦理讲座也提供了在线观看选项。

超过100人参加了此次活动,聆听来自科罗拉多大学Anschutz医学院普通内科和生物伦理及人文中心的副教授Matthew DeCamp博士的演讲。与会者包括Oakland University校长Ora Hirsch Pescovitz博士、Oakland University的几位学院院长、Corewell Health的多位部门主席、医学生和其他人士。

“我希望人们能从这次演讲中感受到我们在管理AI透明度和偏见方面的复杂性,”DeCamp博士在题为“超越数据:医疗保健中的伦理与AI”的讲座结束后说。“但更重要的是,我希望他们能将AI视为不仅是我们使用的工具,而且是能够改变我们思考方式和价值观的技术。”

“AI带来的挑战不仅仅是数据……它们反映了我们是谁,以及我们希望成为什么样的个体和社会。”Krug讲座是OUWB近期举办的多个关于医疗保健中AI的重要活动之一。

今年5月,整个OUWB医学教育周的一天专门讨论了这一主题。(更多关于该活动的信息可在此处找到。)

作为9月女性医学月的一部分,OUWB 2017届毕业生Flo Doo博士发表了题为“利用生成式AI革新精准医学:从医学教育到患者护理”的演讲。Doo目前是马里兰大学医学中心的创新主任和助理教授。(有关她的演讲的更多细节可在此处找到。)

此外,OUWB最近获得了一笔20万美元的拨款,用于研究AI在改善产妇健康方面的潜力。学校官员也在密切关注AI如何融入课程。

“由于AI和机器学习迅速融入医疗保健,AI和伦理是当前的关键话题,”基础医学研究系教授Jason Wasserman博士说。Wasserman认为,Krug讲座以AI为中心是有道理的,因为AI正在改变医疗专业人员如何做出决策、诊断疾病和治疗患者。

“随着这种变革,关于AI在医学中影响的伦理问题也在增加。AI引发了关于透明度、公平性、患者自主权以及医疗决策中潜在偏见的担忧,”他说。“随着AI越来越多地处理传统上由医生负责的任务,AI也在挑战临床判断和职业责任的既定规范。”

“许多AI系统的复杂性和专有性质使得临床医生和患者难以充分理解和质疑这些系统生成的输出,”他补充道。“这要求重新评估患者的权利和医疗服务提供者的道德义务。”

“现在是主动应对AI问题的最佳时机”

DeCamp博士表示,现在是主动应对AI问题的最佳时机。“如果我们希望塑造更好的AI,我们必须思考这些问题并立即采取行动,”他说。

DeCamp介绍了AI可能对医学产生的几个关键影响领域:个性化医疗、诊断准确性、药物发现和开发、预测分析以及虚拟健康助手。他还谈到了AI的快速发展,指出食品和药物管理局已经批准了900多种AI设备用于医学。

DeCamp还讨论了不同类型的AI,并在此基础上开始解决与该技术相关的伦理问题和问题。“我们在伦理学中提出的一个问题是,现有的众多伦理指南是否可以影响即将到来的AI浪潮,”他说。“我们希望如此。”

他建议使用几项共识原则来帮助治理医学中AI的使用:透明、不伤害、减轻偏见、向患者解释以及促进选择。但他也指出,AI可能需要比医生使用的其他工具更高的标准。例如,他提到了2023年11月美国医学会董事会批准的“增强智能开发、部署和使用原则”。该原则要求在病历中记录AI的使用情况,而其他工具则没有类似的要求。“AI是否特殊,还是我们的行为反映了特殊主义?”他问道。

DeCamp还详细讨论了AI中的偏见问题。他以胸部X光解读中的偏见为例,指出最近的一项研究发现,在女性、黑人、西班牙裔、接受Medicaid保险或处于交叉劣势的患者中存在显著的漏诊现象。一个经常讨论的问题是偏见数据集,即AI用来处理结果的主要信息来源。这些数据集通常不能反映所有患者,且一项研究发现,大多数与医疗保健相关的数据集来自加利福尼亚、纽约或马萨诸塞州,从而产生了地理偏见。

DeCamp还指出了在使用AI处理患者时可能出现的其他偏见机会,以及其他潜在的偏见和错误。尽管如此,他还是提出了一些可能减轻偏见的方法。例如,为了改进数据集,他建议与社区合作,使他们愿意贡献数据。更加多样化的团队可能有助于消除处理过程中的偏见,考虑社会和结构健康决定因素可能有助于减少有偏见的输出。

DeCamp还建议治理可能是解决医疗保健中AI偏见的关键。在结束时,DeCamp表示AI可以是一个有用的工具,但警告它会影响人们如何看待彼此以及“我们如何关心,而不仅仅是做什么”。

“我希望深入思考伦理原则及其在现实世界中的应用可以帮助我们塑造AI在医疗保健中的实施方式,”他说。


(全文结束)

大健康
大健康