图片来源:Pexels的SHVETS制作
随着语音人工智能(AI)加速应用于临床环境,西蒙菲莎大学(Simon Fraser University)的研究人员强调亟需对治疗性护理实施伦理、法律和社会监督——尤其是在心理健康领域。
语音AI通过分析声音模式,基于音高、抖动、流畅度及特定用词等声音特征来检测身体、认知和健康状况的迹象。一些科技公司甚至将其誉为医疗保健的“新血液”,因其有潜力作为生物标志物,但西蒙菲莎大学健康科学研究员佐哈·卡瓦贾(Zoha Khawaja)表示谨慎。
在她的论文中,作为Bridge2AI语音联盟(Bridge2AI Voice Consortium)成员的卡瓦贾探讨了心理健康领域基于语音的AI应用的潜力与风险。
卡瓦贾的研究使用结构化多轮调查,收集了13名利益相关者(包括临床医生、伦理学家和患者)的见解。虽然77%的参与者支持使用语音AI来改善患者预后,但92%同意应由医疗机构或政府组织建立治理模式以监督其整合。
“语音AI作为心理健康领域的客观工具具有真正潜力,该领域一直依赖主观诊断如自我报告和访谈,”卡瓦贾说。“但技术的创业速度在医疗保健这样高风险的环境中已超出监管监督。”
一些公司已提供应用,通过分析简短语音样本来评估心理健康状况。然而,卡瓦贾警告称,这些工具常在“健康”灰色地带运作——避免被归类为医疗器械,并规避隐私保护。
“存在治疗性误解的真正风险,人们可能认为这些应用提供临床诊断或治疗,而实际上并非如此,”卡瓦贾解释道。“这对无法获得传统护理的脆弱用户尤其危险。”
参与者提出的关键问题包括算法偏见、缺乏透明度、护理中人际联系的削弱以及责任不明。该研究倡导数字化关怀护理方法,即AI工具支持而非取代治疗中的人际关系。
“患者可能感觉与聊天机器人交谈比与人交谈更安全,”卡瓦贾说。“但这可能导致过度依赖和孤立。这些工具应加强而非削弱临床医生与患者的关系。”
她还建议开发者、监管机构和医疗保健提供者(health care providers)之间采用共担责任模型,以防止伦理倾倒(ethics dumping)——即不公平地将伦理负担转移给临床医生。值得注意的是,83%的参与者同意医疗保健从业者应对语音AI工具使用导致的不良事件负责。
“但临床医生已不堪重负,”卡瓦贾说。“期望他们承担这些技术的最终责任是不现实的。”
目前,美国正在进行临床试验以验证语音作为生物标志物,同时提议建立监管沙盒(regulatory sandboxes)——用于测试新技术的受控环境——以在语音AI进入临床实践前预见伦理挑战并指导政策。
“我并非说我们不应在心理健康护理中使用语音AI或虚拟聊天机器人,”卡瓦贾说。“但我们必须安全、负责任且富有同情心地使用它们。我们需要一个框架,平衡创新与伦理、技术与人性。”
由西蒙菲莎大学提供
发布于2025年10月28日
【全文结束】


