健康与人工智能:推进所有社区负责任和道德的人工智能
摘要
2024年,布鲁金斯技术创新中心启动了“AI公平实验室”(The AI Equity Lab),以探索跨学科和跨部门的方法,设计负责、道德且包容的自主模型。为了实现这一目标,成立了由医疗保健、教育和新闻领域的专家组成的跨学科和跨部门工作组,以开发切实可行的解决方案,以增强对人工智能的访问和采用,同时考虑歧视和建模错误的潜在危害。
引言
人工智能(AI)正在改变医疗保健领域,通过数据分析、诊断、治疗建议和其他方面改善医疗服务。AI提高了效率、准确性、可及性和结果,提供了巨大的突破和机会,特别是对于医疗脆弱的社区和患者。然而,AI在医疗保健中也存在风险,如算法偏见和数据隐私问题。确保AI的安全和有效性需要与理解受影响人群细微差别的合作伙伴和开发者合作设计、部署和使用这些技术。
方法论
“AI公平实验室”的健康与AI工作组专家(WGEs)由在医疗保健、临床研究、患者管理和软件公司工作的多元化利益相关者组成。这些专家因其广泛的经历、兴趣和参与美国不断发展的AI生态系统而被选中。四次在线会议在2024年9月至10月期间进行,每次会议的目标是识别AI在医疗保健中的机会和最佳实践。
包容性AI在医疗保健中的定义
WGEs一致认为,AI有潜力促进健康公平,但必须特别考虑有意和伦理的方法,以实现包容性的AI设计、分发和监管。讨论的主题包括获取、信任和教育。
获取
参与者承认,医疗获取仍然是边缘化群体面临的关键挑战,特别是在农村和城市地区的医疗脆弱社区。有限的医疗获取会加剧健康差异和不良健康结果。AI使能技术可以通过远程医疗、实时远程监控、高级诊断、语言和通信以及个性化护理技术,在增加服务不足社区的医疗获取方面发挥重要作用。
信任
信任是寻求和优化所有社区护理的另一个支柱。不幸的是,代表性不足的社区经历了影响其完全信任医疗行业的创伤和不良影响。例如,塔斯基吉梅毒实验导致黑人男性对卫生部门失去信任。WGEs表示,数字健康和AI技术在市场上的过度应用导致对隐私、安全、误用、偏见和患者教育方面的不良后果过于自信。
教育
WGEs表示,建立一个具备AI素养的人群对于增强公众信心、国家竞争力、劳动力准备、隐私和安全以及在线安全至关重要。这些教育工作适用于广泛的应用和使用,特别是在医疗保健领域,其中风险似乎更高。
数据和AI治理的作用
WGEs还讨论了所需的治理结构、政策和框架,以促进包容性和负责任的AI。他们利用自己在企业、基金会、大学以及医学、生命科学、数据科学、政策和技术方面的背景,考虑了在没有适当治理的情况下开发AI的实际影响。
医疗保健和AI的机会与挑战
在开发AI解决方案时,必须在初始对话和考虑中代表感兴趣的和有投资的利益相关者。那些参与开发、部署或政策制定的人需要采取具体措施,尽早让服务不足的社区和通常在技术生态系统中代表性不足的人参与进来。
偏见缓解和健康公平
任何关于健康和AI的讨论都离不开偏见识别和偏见缓解。偏见一直是本文反复出现的主题,医疗保健是最具后果性的领域之一。训练AI模型的数据将从医疗记录和医学研究中提取,其中大多数本身就充满了偏见。WGEs讨论了更有效的偏见缓解方法,提出了促进AI设计和开发过程中健康公平的策略。
提出的建议
通过严格的讨论和探索,WGEs为推进健康和AI提出了建议。然而,许多建议依赖于政治意愿、资金和努力来缩小教育、意识和政策方面的差距。
具体而言,该小组建议政策制定者和其他利益相关者做以下几点:
- 优先考虑所需基础设施的可访问性,以实施各种AI在医疗保健中的用例,并更详细地衡量机会和风险。
- 加速AI素养和意识,通过公共卫生工作者的帮助进行宣传,特别是在医疗资源不足和服务不足的患者和社区中。
- 确保在整个AI设计和部署生命周期中,患者的代表性,以确保模型反映其独特的健康状况、诊断和社区。
- 评估用于训练AI健康模型的数据基础设施,以避免以延续健康差异的方式对患者进行差异化处理。
- 将解释性和透明性作为战略重点,分享AI的好处、技术限制和培训数据中的显性和隐性缺陷。
- 推进研究,以更全面地了解健康和AI的机会和风险。
- 制定治理框架和实践,以推进更全面的健康和AI方法。
(全文结束)


