科技公司正将基于人工智能的笔记软件作为新型省时工具推销给治疗师。但签约使用这些服务的医疗提供者可能在不知情的情况下,将患者的敏感健康信息作为数据养料提供给价值数十亿美元的人工智能治疗产业。
将进度记录外包给自动化软件的医疗提供者,可能正在将患者的健康信息作为其他人工智能应用的数据养料。(Shaul Schwarz, Verbatim / Getty Images for Be Vocal)
提供基于人工智能的笔记软件的科技公司——以节省行政时间作为卖点——已在服务条款中悄然加入允许出售患者治疗记录并将其用于训练其他人工智能应用的条款。
医疗提供者将标准进度记录外包给自动化软件(该软件会总结会话录音和文字记录),可能在不知情的情况下将患者的敏感健康信息提供给庞大的人工智能治疗产业。
一家人工智能软件公司宣称:"多数治疗师并不热衷于撰写进度记录。如果特拉普罗(TheraPro)为您代劳呢?"该公司向心理健康提供者收取每月60美元费用,提供无限次人工智能笔记服务,包括机器人诊断辅助和治疗规划。
根据特拉普罗的服务条款,一旦提供者签约,即授予特拉普罗对患者匿名化治疗会话的"非独占、可转让、永久性、免版税的全球许可"。
该许可包括"无限制地"训练该公司开发的"任何人工智能程序"——包括与第三方承包商合作开发的程序。特拉普罗保留与第三方"存储、访问和操作"去标识化患者数据的权利,同时免除对承包商行为的责任。
研究表明,允许科技公司规避隐私法的"去标识化"健康数据实际上已因机器学习技术的进步而失效:人工智能模型能以高达85%的准确率从去个人化数据中重新识别出个体。
特拉普罗在致《杠杆》杂志的声明中表示:"我们的目标是用人工智能赋能治疗师,而非取代他们……在严格保障措施下,我们可能会使用去标识化数据来提升服务,始终服务于我们的使命——帮助治疗师更好地协助患者康复。"
弗里德(Freed)的创始人声称,他在目睹妻子(一名治疗师)多年深夜整理患者病历后,开发了这款人工智能医疗记录工具。该软件的服务条款赋予公司广泛许可,可将会话数据用于软件开发,同时拥有"转授权、复制、执行、使用、存储、归档、修改、展示、分发……传播、销售、转让及以其他方式利用"患者匿名化治疗记录的权利。
其他记录软件公司虽通过承诺保护消费者数据不被用于训练人工智能来弱化其宽泛的服务条款,但实际操作仍存疑虑。蓝图人工智能(Blueprint.AI)告诉治疗师"专注于[其]客户,将文书工作交给我们"。其服务条款单方面授予蓝图"处理、修改、复制、创建衍生作品、展示和披露"治疗数据的权利,并"在适用法律允许的任何目的下使用和共享"这些数据。
蓝图公司告诉《杠杆》杂志,其治疗师始终有权删除录音和笔记,且会话数据绝不会用于训练人工智能。"我们正在服务条款中更清晰地阐述这一点,"创始人丹尼·弗里德写道,"蓝图存在的意义是支持而非取代治疗师。"
与此同时,声称"致力于以人为中心的行为健康未来"的软件公司SimplePractice表示,目前不存储患者会话数据……但计划在创建退出选项后开始存储。该公司承诺"通过合同限制……第三方使用[患者]数据训练其自身人工智能"。
所有这些动态发生之际,美国一家资金雄厚的医疗机构正大举投资开发人工智能驱动的"机器人"治疗。总部位于洛杉矶的西达赛奈医疗中心(Cedars-Sinai Medical Center)近期创建了名为"夏亚"(Xaia)的全自动"治疗师",该系统"基于数百份治疗文字记录,包括真实会话和模拟会话"。
持有夏亚独家商业许可的营利性"数字疗法"公司VRx Health,要求用户放弃陪审团审判的权利。
包括ChatGPT创建者OpenAI在内的AI初创公司正推动将自动化聊天机器人技术用于治疗应用,声称其软件因展现"类人敏感性"而特别适合心理咨询。《洛杉矶时报》报道称,去年使用人工智能的医疗保健初创公司共筹集39亿美元资金,其中14亿美元用于心理健康领域。
美国联邦贸易委员会上周针对一名14岁佛罗里达男孩在与涉嫌存在虐待关系的AI机器人互动后自杀身亡事件,正式启动对伴侣聊天机器人技术安全性的正式调查。此类关系在青少年中日益普遍;一项7月调查显示,近四分之三13至18岁儿童曾使用聊天机器人寻求陪伴。
美国心理学会医疗创新高级总监瓦伊尔·赖特博士本月早些时候在国会作证时谈及所谓"数字疗法"的兴起。她表示,尽管治疗聊天机器人"可为原本无法获得治疗的人提供服务……但这些工具在作为合格专业人员所提供护理的辅助手段(而非替代品)时最为有效和安全,确保人工介入环节持续存在。"
弗里德公司首席执行官未回应置评请求——但《杠杆》杂志收到来自该公司"支持机器人"的回复,确认了公司在数据去标识化方面的政策。
【全文结束】