想象一次永无止境的医生问诊。你手机上的应用程序和手腕上的可穿戴设备全天候监测你的健康状况,在你甚至感觉不适之前就提醒潜在问题。这听起来很乌托邦:没有突发疾病、更快的诊断,甚至可能有AI指导的治疗方案。然而,正如佐治亚理工学院研究员凯瑟琳·维乔雷克所发现的,当今的人工智能(AI)健康工具不仅承载着医疗承诺,还反映了社会深层的价值观、假设和权衡。
在成为佐治亚理工学院研究员之前,凯瑟琳·维乔雷克曾在公共卫生研究中心和咨询公司工作,包括哈佛大学陈曾熙公共卫生学院的D-Lab、Flip Labs以及芝加哥大学性与生殖健康跨学科探究与创新中心(Ci3)的设计实验室。
作为以人为中心的计算领域的TSRB研究员和博士生,维乔雷克为这一领域带来了批判但建设性的视角。凭借设计和公共卫生背景,她将医疗技术视为一个技术与文化系统。"我对在计算中以不同方式思考时间很感兴趣,"她说。"我们在设计技术时,必须着眼于过去和未来,而不仅仅是现在。"
她与同事海蒂·比格斯、卡马拉·派亚皮利·蒂鲁文卡塔纳坦和肖恩·巴德泽尔的最新研究探讨了医疗保健领域的人工智能试图构建什么样的未来,以及为谁构建?这些答案既发人深省又引人争议。
思考人工智能承诺的框架
维乔雷克等人的分析借鉴了社会学家露丝·莱维塔斯的"方法论乌托邦"(utopia-as-method)理念,这是一种社会学理论,主张将乌托邦不仅视为完美社会的蓝图,而且视为探索和想象替代现状的方法。将这一理念应用于技术,维乔雷克等人不仅考察AI系统的功能,还探究其隐含支持的社会愿景。他们利用方法论乌托邦的三部分方法提出以下问题:
- 考古学:技术反映了过去或现在的哪些希望或理想?
- 本体论:它假设或鼓励什么样的人或行为?
- 架构学:它旨在构建什么样的未来系统,以及会带来什么后果?
通过这一视角,维乔雷克和她的合作者分析了21种现实世界中的AI医疗产品,范围从生育工具到可穿戴监测设备。他们的研究结果概述了通过健康AI营销的四种主要愿景。
全天候、全优化
AI驱动的健康工具的宣传材料始终描绘了四种不同的未来愿景或"世界"。在无处不在的健康世界中,AI始终在监视:像Alerje过敏传感器和Marani Health孕产妇可穿戴设备这样的设备收集持续的数据流,将日常环境转变为诊断空间。医疗保健变得主动且无处不在,在症状出现之前就捕捉问题。
第二种愿景优先考虑更快、更有能力的护理,其中AI驱动的超声波和手术机器人承诺速度、精确性和更少的错误。然而,正如维乔雷克等人所指出的,过度强调效率可能会使定义同情护理的人际联系边缘化。
第三种世界是预防性世界,AI不仅对疾病做出反应,而是试图完全预防疾病。像Northwell Health的孕期聊天机器人这样的聊天机器人定期检查;甚至自拍应用程序也能在几秒钟内扫描你的面部获取生命体征。健康是一个持续的过程,每个人都被视为潜在患者。
最后,还有优化身体的愿景,AI工具充当个人改进教练。像AiVF这样的生育应用程序承诺提高怀孕几率,而像Pavlok这样的行为塑造设备则推动用户养成更健康的习惯。表象之下是一个持续自我优化的理想:不断改进和升级。这些愿景具有真正的潜力,但反映了对健康含义的狭隘定义。"这些技术嵌入了关于我们应该成为什么样的人的想法,对健康含义的单一愿景,以及社会应该如何运作,"维乔雷克说。
克洛伊是一款AI助手,为那些进行试管婴儿治疗的人提供前所未有的洞察,为患者及其护理团队提供实时支持。
角色转变:患者、提供者与人工智能
这些技术带来的最重大变化之一是它们重新定义了医疗保健中的角色。
传统上,患者被视为积极的决策者,而医生则被视为权威的护理提供者。然而,在AI驱动的模式中,维乔雷克等人写道,"患者变成被动消费者,医疗保健提供者成为与AI共同创造知识的人,而AI本身则充当代理和守门人。"
对于准妈妈来说,孕期AI驱动决策的兴起不仅在技术上,而且在情感上使护理变得复杂,特别是当公众对医疗机构的信任仍然脆弱时。
实际上,这意味着患者经常被要求信任系统的建议,而不完全理解这些建议是如何做出的。与此同时,医生越来越多地依赖AI工具来解释数据或建议治疗,验证或改进机器的建议,而不是独立生成这些建议。
在这种情况下,AI不仅仅是助手;它过滤信息并设定阈值。例如,在生育护理中,一个系统承诺"减少猜测"并实现"协作讨论"。但维乔雷克警告说,"许多工具将AI呈现为房间中更聪明的'伙伴'",而人类则被降级为实施者。
这种新的动态有其后果。如果健康应用程序说你没事,你会被动接受吗?如果AI与你的医生意见相左,你会信任谁?答案并不总是明确的。
当乌托邦与现实碰撞
尽管有这些承诺,AI医疗工具在现实世界中引发了真正的担忧,使它们的乌托邦吸引力变得复杂。隐私是最紧迫的问题之一。持续监测意味着数据收集,跟踪从心率和睡眠到与聊天机器人治疗师的亲密对话的一切。如果没有明确的保护措施,无缝护理与监视之间的界限就会模糊。还有一个问题是提供者倦怠。虽然AI通常被吹捧为节省时间的工具,但它可以生成更多的警报和数据供临床医生解释,从而增加他们的工作量。研究已经记录了与AI相关的疲劳,特别是在放射学等领域。另一个挑战是偏见与排斥。由于AI系统从数据中学习,它们经常复制数据中的盲点。许多工具假设理想的用户是非残疾、神经典型且精通技术的,使其他人落后。承诺"修复"视力、听力或生育能力的设备可能会无意中将残疾视为需要纠正的东西,而不是需要适应的东西。"如果你不符合这个标准,"维乔雷克警告说,"你可能会被忽视或污名化。"最后,还有人文关怀的缺失。AI可以检测症状,但不能提供同理心、文化背景或情感支持。治愈不仅仅涉及数据;它需要联系。而这是一些算法无法替代的。
那么,我们应该如何构建医疗保健中的AI呢?对维乔雷克来说,答案在于协作。工具不应仅仅由工程师设计,而应有医生、患者、护理人员和伦理学家的参与。例如,产后护理应用程序可能会从妇产科医生、导乐师、心理健康专业人士和新妈妈那里汲取见解。
她认为,共同设计可以及早发现盲点。"如果算法标记了风险,它应该在如何富有同情心地解释这一点上获得输入,"她说。系统应该是可审计的、包容的和透明的。它们应该清楚地说明决策是如何做出的,以及为谁做出的。
"在技术设计中,人应该是对话的中心,而不仅仅是机器,"她认为。"医疗保健必须既注重效率也重视同理心。"
【全文结束】