AI正越来越多地应用于医疗决策中,从诊断到治疗决策再到机器人手术。然而,长期以来,AI算法中的偏见问题一直存在,这些算法通常对某些群体(如女性和有色人种)的准确性较低。现在,随着AI公司和医疗服务提供者越来越多地将AI整合到患者护理中,评估和解决这些偏见的方法比以往任何时候都更加重要。
昨天,一项名为“STANDING Together(数据多样性、包容性和泛化性的标准)”的国际倡议发布了建议,希望“推动进一步进展,使AI医疗技术不仅平均安全,而且对所有人都安全。”这些建议发表在《柳叶刀数字健康》和《NEJM AI》上,同时,该倡议的患者代表在《自然医学》上发表了评论。这些建议基于一项涉及30多个机构和58个国家的350多名专家的研究。
问题
在介绍建议之前,让我们先回顾一下问题。总体而言,用于检测疾病和伤害的算法在少数群体(如女性和有色人种)中的表现较差。例如,用于检测皮肤癌的技术被发现对肤色较深的人不够准确,而一种肝病检测算法对女性的表现不佳。一项震撼性的研究揭示,一种广泛用于医院的临床算法要求黑人患者病情更严重才能获得与白人患者相同的护理建议。类似的偏见也在用于确定资源分配的算法中被发现,例如残疾人能获得多少帮助。这只是众多例子中的一小部分。
这些问题的根本原因通常在于用于训练AI算法的数据。这些数据本身往往不完整或扭曲——历史上,女性和有色人种在医学研究中代表性不足。在其他情况下,算法因为使用了作为某些其他信息代理的数据而失败,但这些数据未能恰当地捕捉AI系统应解决的问题。例如,拒绝黑人患者与白人患者相同护理水平的医院算法在训练时使用了医疗费用作为患者护理的代理指标。结果发现,医院系统在每个护理级别上为黑人患者花费的医疗费用历来较少,这意味着AI未能准确预测黑人患者的需求。
建议解决方案
这项研究背后的集体提出了29条建议——其中18条针对数据集管理者,11条针对数据使用者。
对于数据集管理者,论文建议数据集文档应包括用简单语言编写的摘要,指出数据集中存在的群体,处理任何缺失的数据,识别已知或预期的偏差或错误来源,明确说明数据集的创建者和资助者,详细说明数据集使用应避免的目的等步骤,以增加透明度并提供背景信息。
对于数据使用者,建议他们应识别并透明报告代表性不足的领域,评估特定群体的性能,承认已知的偏见和局限性及其影响,并在整个AI医疗技术生命周期中管理不确定性和风险,包括每一步的文档记录。
整体主题包括主动询问和透明度的要求,以及对情境和复杂性的敏感性。“如果无法在算法阶段避免偏见编码,其识别可以促使与AI医疗技术使用相关的各种利益相关者(开发者、监管者、卫生政策制定者和最终用户)承认并减轻偏见转化为危害的风险。”论文写道。
指南能否转化为行动?
像所有新兴的AI应用一样,潜在的好处、已知的风险和负责任的实施之间需要微妙的平衡。尤其是在医疗护理方面,利害关系非常高。
这篇论文并不是第一个试图解决AI医疗技术中偏见问题的文献,但它是最全面的之一,发布在一个关键时期。作者表示,这些建议不是为了成为一个清单,而是为了促进主动探究。但现实是,只有通过监管才能确保这些教训得到应用。
其他AI新闻
欧洲隐私监管机构确认AI公司在GDPR下的“合法利益”论点,但设定了高门槛。 欧洲数据保护委员会(EDPB)昨天发布了新的指南,称AI公司声称他们有“合法利益”处理个人数据以训练AI模型可能是合法的依据。意见强调,声称“合法利益”需要公司通过三步测试,包括有一个“明确且精确表述”的理由处理某人的数据,且处理必须“真正必要”以实现目标。Meta对此决定表示欢迎,但也表示“令人沮丧的是花了这么长时间”。一些隐私倡导者认为这一决定过于模糊,另一些人担心该意见将使许多AI应用程序在欧洲难以提供。特别是,有人指出,三步测试对通用AI模型(如ChatGPT)构成了挑战,这些模型并非为一个明确用途而构建,发布后可以用于新的和不同的方式。您可以阅读更多来自《财富》杂志David Meyer的报道。
美中科技紧张局势加剧,影响顶尖AI人才的移民。 中国生产了世界上一半的AI人才,一直是美国科技公司最大的国际STEM高技能工人来源。尽管中国AI工作者仍寻求移民,称限制阻止他们接触OpenAI等公司的尖端芯片和技术,但日益加剧的地缘政治紧张局势和间谍活动担忧导致对中国公民申请赴美学习或工作的审查更加严格,签证处理时间延长。加拿大是另一个顶尖AI人才的热门目的地,也面临类似问题。您可以阅读更多来自Rest of World的报道。
Character.ai托管模仿真实校园枪手及其受害者的聊天机器人。 Futurism报道,这些令人不安的内容大多呈现为扭曲的同人小说,枪手被描绘成朋友或浪漫伴侣。Futurism还发现了模仿桑迪胡克和哥伦拜恩大规模枪击案的具体枪手及其受害者的聊天机器人。其他聊天机器人将用户置于详细的校园枪击场景中,让他们在游戏般的模拟中导航混乱的学校场景。这些场景讨论了具体的武器和同学的受伤情况。这家由谷歌支持的公司已经因多起诉讼而受到批评,这些诉讼指控其聊天机器人向年轻用户推广暴力和自残行为。
AI搜索工具Perplexity在90亿美元估值下筹集额外5亿美元。 据彭博社报道,本轮融资由Institutional Venture Partners领投。成立于2022年的Perplexity发展迅速,截至3月拥有1500万活跃用户。
谷歌要求帮助训练Gemini AI系统的合同评估员判断他们可能没有专业知识的内容。 技术博客TechCrunch援引其获得的文件报道称,谷歌更新了给予GlobalLogic外包公司的合同评估员的指导方针。GlobalLogic的合同评估员提供反馈,以帮助改进Google的Gemini AI模型的回答。虽然评估员过去可以选择跳过他们认为自己不具备评估资格的回答,但新指南取消了这一选项。批评者认为,这可能导致关键领域(如医疗、金融建议或法律建议)的AI输出不可靠。谷歌拒绝就该报告发表评论。
OpenAI推出“1-800-CHATGPT”功能。 据The Verge报道,该公司宣布将允许美国用户每月免费拨打1-800-CHATGPT长达15分钟,并通过WhatsApp全球发送消息。该服务由OpenAI的Realtime API提供支持,旨在通过熟悉的渠道使AI更加普及。OpenAI澄清不会使用这些通话来训练其模型,以解决隐私问题。《财富》杂志Jenn Brice报道,但这一新功能让人联想到谷歌已停用的GOOG-411,后者收集语音样本以改善语音识别。
(全文结束)


